Page d'accueil Le Club Les Textes Les Projets A propos de ce site Pour nous écrire

LA CONVERGENCE INFORMATIQUE

Pierre BERGER
Président du club de l'Hypermonde
Chef de service au Monde Informatique


Le Club de l'hypermonde, que j'ai l'honneur de présider, se fonde précisément sur l'idée de convergenge. Je cite notre manifeste: "Les technologies de l'information, informatique, télécommunications et audiovisuel, convergent. Ce mouvement accéléré englobe leurs aspects matériels, logiciels et conceptuels."

Mais les réalités du terrain montrent souvent que tout ne converge pas. Informatique et télécommunications, en particulier, restent pour l'essentiel le fait de sociétés différentes. Bull ne s'est pas fondu dans France Télécom. IBM n'a pas réussi à devenir un opérateur important de télécommunications et, en sens inverse, ATT reste un acteur relativement secondaire sur le marché informatique. D'ailleurs sur nos, bureaux, le téléphone ne s'est toujours pas intégré au micro-ordinateur, même quand il dispose d'un modem ou d'une connexion sur un réseau local. Alors que cette fusion fut une des grandes promesses des fondateurs de la bureautique, en 1977, c'est à dire il y a maintenant 16 ans.

Et pourtant, nous assistons bien à un mouvement aussi profond que régulier. Aussi déterministe que la formation des étoiles et des planètes il y a des milliards d'années, que le passage de la cueillette à l'agriculture, du silex au métal, de la vapeur à l'électricité. Bien qu'il nous manque encore un nouvel Einstein pour écrire les lois de ce que qu'on pourrait appeler l'hyper-relativité.

Il peut paraître surprenant de voir un déterminisme dans des phénomènes créés par l'homme, donc dépendants de sa liberté. Mais nous n'agissons pas totalement librement. Il y a des lois économiques, même si elles gardent un tour aléatoire. Une "main invisible" guide l'économie, pas toujours dans le sens que nous souhaiterions. En tous cas, en matière d'informatique, on peut vraiment observer la régularité de son développement, ce qui n'exclut pas une réflexion sur ses causes.

La convergence peut ainsi s'exprimer comme la concentration progressive d'un noyau dur de l'informatique. Au fil des ans, les couches se stabilisent et continuent de se concentrer, de se formaliser, de s'automatiser. Un peu la vie a peu à peu fait émerger des formes stables et toujours plus riches: vertébrés, mammifères, primates humains. Autour du noyau très dense et très complexe de l'ADN.

Il s'agit d'abord d'une concentration matérielle: tous les appareils électroniques se miniaturisent. Et ils se relient les uns aux autres, laissant penser qu'à la limite, il n'y a plus des machines, mais une seule, immense, machine. Dans le même mouvement, les processus, les biens, les échanges, se dématérialisent. Le Conseil économique et social vient de publier un second rapport sur le "poids de l'immatériel". Toffler décrit le phénomène dans son livre "Shift of Power" et vient, tout récemment, d'en montrer les conséquences pour la Défense, dans son ouvrage "Guerre et contre-guerre".

Mais le mot "immatériel" pousse la logique un peu trop loin. Un circuit intégré d'ordinateur, même très petit et complexe, reste matériel. Tous les biens et les échanges immatériels s'appuient sur des dispositifs matériels. Elle devient secondaire, marginale, mais elle continue pourtant de nous rappeler ses lois. Par exemple en télécommunications, quand on communique par satellite, il faut un tiers de seconde pour aller de Toulouse à San Francisco. Parce que la vitesse des faisceaux hertziens, comme celle de la lumière, ne dépasse pas 300 000 kilomètres par seconde. Pour les mêmes raisons, d'ailleurs, les machines ne se fondent pas réellement en une machine unique. Aux mouvements de centralisation succèdent des phases de répartition, de distribution. Au début de la décennie, les débats sur "le grand et le petit chaudron" ont encore illustré cette dialectique.

Il s'agit ensuite d'une formalisation de tous les processus. A partir de 1494, nos pères ont commencé à plier le commerce aux lois de la comptabilité en partie double. Nous avons développé les formalismes mathématiques, jusqu'à l'absurde même au cours des années 60-70, époque des "mathématiques modernes". Et nous mettons tout aujourd'hui sous forme "digitale".

Enfin, ce mouvement conduit nécessairement à l'automatisation des tâches. La productivité mais aussi la maîtrise de la complexité exigent que nous déléguions en permanence une part de nos travaux à la machine. Ce qui nous ramène aux vieilles angoisses de l'apprenti sorcier et à la question du chômage. La machine est-elle là pour nous remplacer ou pour nous aider? Elle ne peut faire l'un sans l'autre, nous conduisant ainsi toujours à réinventer le rôle des hommes.

La convergence peut ainsi s'exprimer comme la concentration progressive d'un noyau dur de l'informatique. Au fil des ans, les couches se stabilisent et continuent de se concentrer, de se formaliser, de s'automatiser. Un peu la vie a peu à peu fait émerger des formes stables et toujours plus riches: vertébrés, mammifères, primates humains. Autour du noyau très dense et très complexe de l'ADN.

Mais, comme le montre cette analogie, il ne s'agit pas d'une convergence statique, d'une fossilisation progressive. Ces objets formalisés sont actifs, ils moulinent des opérations et des instructions à des débits toujours croissants. 66 millions par seconde, actuellement, sur les microprocesseurs Pentium.

Et la convergence stimule la diversité. Autour de ces structures universelles, chacun peut construire sa personnalité, son univers. De même que le fait de parler tous le français n'a pas réduit la diversité des habitants de l'Hexagone. Bien au contraire.


CONVERGENCE TECHNOLOGIQUE

A la base, toute la convergence des technologies de l'information, si marquante aujourd'hui, se fonde sur une sorte de miracle: l'existence d'une sorte de quantum informationnel, le bit (binary unit). L'immense variété des phénomènes informationnels ne laissait nullement prévoir qu'ils pourraient tous se plier à cette structure unique, répétée autant de fois que nécessaire. Quelques esprits avancés le pressentirent. Comme les Templiers, selon la légende, ils possédaient une tête d'or qui répondait à toutes les questions par oui et par non. Mais il s'agit d'un miracle comparable à tous ceux qui permettent l'existence du monde et la nôtre pour commencer: il aurait suffi que la Terre soit un plus loin ou un peu plus près du Soleil pour y rendre la vie impossible.

Un quantum informationnel, le bit

Des esprits avancés commencèrent à l'expliciter cette puissance du binaire à propos de la logique (Boole), du calcul (Babbage). Puis le mode binaire, ou digital, s'appropria progressivement les données, le texte, le son, l'image.

Longtemps on accusa l'informatique de manichéïsme, puisqu'elle voulait tout ramener au blanc et au noir. Mais la pratique montre abondamment aujourd'hui qu'avec suffisamment de bits, l'on peut rendre plus de nuances de gris, ou de couleurs, que l'oeil n'en peut percevoir. Et si certains audiophiles reprochent aujourd'hui au disque compact une certaine dureté, elle trouve sa cause dans un taux d'échantillonnage et de finesse binaire encore insuffisant.

Plus important encore, la codification binaire se prête à représenter aussi bien les données que les programmes, les instructions. Ce fut l'un des apports majeurs de Von Neumann, un des fondateurs de l'informatique moderne pendant la dernière guerre mondiale. Chacun de nous en fait l'expérience quotidienne: une même disquette, a fortiori un même CD-Rom peut transporter aussi bien des jeux que des fichiers statistiques. Une évidence, semble-t-il, pourtant fort éloignée de la réalité des machines mécaniques d'hier, où les produits traités, dans leur matérialité, n'avaient rien de commun avec les ordres donnés à la machine, avec leur caractère intellectuel. Pour parle comme les linguistes o les logiciens: en informatique, langage et métalangage se situent sur le même plan.

Depuis le début des années 1990, le concept de "réalité virtuelle" est venu montrer la capacité de représentation universelle de l'informatique. Grâce à des casques spéciaux, l'ordinateur peut nous plonger intégralement, ou presque, dans des univers de synthèse. Espace en relief, sonorisation en trois dimensions, mouvements du corps perçus par des capteurs placés sur la tête, les mains, et différentes parties d'une combinaison spéciale. Pour mieux exprimer la puissance et l'intérêt réel de cet espace, nous l'avons baptisé "hypermonde".

Notons que les autorités linguistiques françaises recommandent de traduire l'anglais "digital" par "numérique". Cela nous semble fâcheux, car basé sur la confusion entre un chiffre (qui traduit l'anglais digit) et un nombre. La représentation d'un caractère ou d'une couleur par un code binaire, ou digital d'ailleurs, n'a rien a voir avec le monde des nombres, caractérisé notamment par des opérations qui n'ont en général aucun sens si on les applique aux codes.

A l'intérieur des machines, qu'il s'agisse d'ordinateurs, de mémoires ou de lignes de télécommunications, toute information figure donc sous forme binaire. Mais, au moment de leur présentation à l'homme, il conviendra en général de les retranscrire sous une forme plus ou moins analogique.

Comment, par exemple, représenter l'heure? On pourrait transposer à l'écran une représentation purement binaire, avec une suite de rectangles par exemple. Il en faut onze pour représenter les minutes, dix-sept pour avoir les secondes. Inutilisable pour l'homme.

A l'autre extrême, une barre pourrait représenter le pourcentage de la journée déjà passé. Ou, de façon plus imagée, montrer un paysage avec la position du soleil. Cela pourrait convenir pour certains environnements de travail où la perception du temps doit être immédiate, réflexe, sans nécessité de précision.

Mais en général, les représentations combineront le mode analogique et le mode digital. Nous tendons aujourd'hui à représenter numériquement (base 10) les heures, minutes et secondes. Mais certains préfèrent encore la représentation des horloges de nos pères, avec leurs deux aiguilles et leurs chiffres qui repèrent les heures du matin et de l'après midi, et donnent les minutes en multipliant le chiffre par 5...

Parmi les combinaisons les plus élaborées des deux modes, citons les tableaux de bord des automobiles ou des avions, les salles de contrôle industrielles.

Au sein même des machines, il faut souvent faire des compromis entre différentes manières de combiner les bits, les unes plus analogiques, proches des représentations humaines, les autres plus abstraites. Dans un système d'information géographique, par exemple, on combinera des données de type vectoriel (un segment de droite est représenté par les coordonnées de ses extrémités) et de type "bitmap" (le même segment sera représenté par les coordonnées de chacun de ses points).

Un élément chimique central: le silicium

Le fait que tout puisse se mettre sous forme binaire se traduit directement dans la réalisation matérielle des ordinateurs. Un même "support" matériel convient aux parties les plus importantes de la mémoire (mémoire vive, mémoire centrale) et aux circuits de calcul. Données comme programmes prennent place dans des cellules de mémoire et sont traitées par les circuits de "l'unité arithmétique et logique". Tous ces dispositifs, en pratique, en simplifiant un peu, sous forme de transistors implantés par millions sur une petite surface de silicium, la puce (chip).

Malgré des recherches sur d'autres supports (saphir, gallium), la puce de silicium monopolise pour l'essentiel les traitements digitaux. Pour l'instant aussi, ni les "composants organiques" ni les circuits de calcul optiques n'ont été en mesure de supplanter le silicium.

Gordon Moore (Intel),
a formulé il y a quelque vingt ans une loi essentielle pour comprendre le mouvement de l'informatique: le nombre de circuits élémentaires que l'on peut mettre sur un chip double environ tous les deux ans. Cette loi se vérifie approximativement depuis vingt ans, et tout porte à penser que cela va continuer encore dix ans.

La première signification de cette loi, c'est que les machines se miniaturisent. Nous en profitons pour nos portatifs. Mais elle est essentielle aussi pour les calculateurs les plus puissants. En effet, les signaux électriques ne vont pas plus vite que la lumière, 300 000 kilomètres par seconde... ce qui ne fait que cinq mètres pour les 15 nanosecondes qui séparent deux cycles successifs d'un processeur à 66 mégahertz. Les machines puissantes doivent impérativement être de volume réduit.

En pratique, la loi de Moore, purement technologique au départ, se traduit par des croissances du même ordre en termes de volume global des machines, de consommation électrique, de prix. Tous les deux ans, on peut en avoir deux fois plus, que ce soit pour le même prix, pour le même poids ou sous le même volume. Selon les domaines, on assiste parfois à des ralentissements. Parfois au contraire l'histoire va plus vite encore.

Le terme américain down-sizing traduit assez bien cette simultanéité des réductions, qui se traduit aussi bien dans le volume des "armoires" informatiques de nos salles machines que dans le budget informatique des entreprises. Avec tout de même quelques désillusions.

A certaines époques, on se demande: mais à quoi va servir toute cette puissance, toutes ces machines. La réponse n'a que rarement tardé à venir et à dépasser les prévisions. Actuellement, le désir de traiter des images et a fortiori de images animée multiplie par dix sinon cent la puissance dont nous avons besoin au niveau du poste de travail ou des machins domestiques. Et il en faudra bien plus encore si l'on veut un jour appliquer sérieusement l'intelligence artificielle aux besoins pratiques.

Un type unique d'unité centrale, de Von Neumann à Intel

Presqu'aussi surprenante que la digitalisation universelle, nous assistons à la domination absolue d'un seul type de processeur à tout faire, la machine de Von Neumann. Il la conçut au moment de la deuxième guerre mondiale, avec quelques principes de base. Deux sont particulièrement importants:
- données et programmes suivent les mêmes canaux et se stockent de la même manière;
- la machine procède par lecture d'une suite d'instructions les unes après les autres, sauf quand l'une d'elles lui indique de faire un "saut", et de reprendre la lecture à un autre numéro d'instruction. La méthode permet, en particulier, de réaliser des boucles, de recommencer autant de fois que nécessaire une série donnée d'instructions.

Depuis 50 ans, on a souvent tenté de proposer d'autres modèles de machines, mais elles n'ont jamais eu de succès. Même les "réseaux neuronaux", qui visent à copier le cerveau plutôt que la mécanique des ordinateurs classiques, restent en pratique de simples logiciels qui tournent, eux aussi, sur les machines de Von Neumann.

A ce niveau, on a même échoué dans différentes tentatives de spécialisation. On a tenté de distinguer des machines pour le calcul scientifique, la gestion, le pilotage des processus industriels. Mais finalement, les machines universelles l'emportent toujours. Et les mêmes circuits servent aux chercheurs, aux enfants qui jouent à la maison et aux employés de l'état civil. Un très petit nombre de processeurs-types monopolisent aujourd'hui la planète. Largement en tête viennent les machines Intel ou compatibles.

Les seules variantes portent sur des points relativement secondaires. Par exemple la variété du nombre d'instructions élémentaires câblées sur le silicium (machines Risc opposée aux machines traditionnelles) ou l'organisation de machines combinant un grand nombre de processeurs et de mémoires (multiprocesseurs, parallélisme massif). La construction des unités centrales s'est donc concentrée sur quelques types standards. Les machines Intel viennent largement en avant, avec quelques "compatibles". Les grandes machines classiques, dites aujourd'hui "propriétaires", continuent de se construire en petite quantité. A un niveau intermédiaire, les "machines Unix" ou les machines "Risc" représentent une dizaine de types majeurs.

La baisse des prix élargit les marchés, et l'on compte aujourd'hui la production de chips par millions, sinon par dizaines de millions. Un jour sans doute par milliards, quand la Chine s'éveillera vraiment à l'informatique.

Le silicium absorbe tout

Ainsi, d'un point de vue strictement technique, le processeur de Von Neumann sur son chip de silicium tend à concentrer sur lui toute la complexité des machines, y compris leurs structures en réseau.

Rapide, inusable, peu cher, fabriqué en grandes séries, standardisé, universel, linéarisant la complexité... lui seul peut porter le software et donc mobiliser entre les mains du programmeur jusqu'au moindre détail des procédures les plus complexes. En tous cas de celles que nous savons automatiser.

Et ce qu'il ne peut absorber sur lui-même, pour des raisons techniques ou de prix, il le veut à proximité immédiate, pour minimiser les délais d'interaction avec ses péripéhriques. A fortiori, pour ce qui concerne les liaisons à grandes distances, c'est à dire les télécommunications, ne leur laisse-t-il, pour ainsi dire, que les tranchées et les fusées.

Tout ce qui, en dehors de lui, forme "réseau" autrement que simple arborescence autour de ses ports, introduit une pénible complexité fonctionnelle ou la laisse sous forme analogique, donc peu performante et chère.

Le parallélisme, par exemple, est toujours difficile. Les réseaux neuronaux ne sont que des modèles, en pratique toujours implantés sur des machines de Von Neumann. Les grands calculateurs hautement parallèles ont toujours eu des difficultés à se développer. Thinking machines vient de disparaître. Et l'on finit par parler de "parallélisme massif" pour désigner des machines à deux processeurs et plus, à condition qu'elles aient une architecture "symétrique"

CONVERGENCE DE L'INGENIERIE

Au dessus de l'unité centrale, le système d'exploitation

La convergence-concentration se poursuit à un niveau supérieur, celui des systèmes d'exploitation, en partie confondue avec les interfaces graphiques de base. Ici encore, sinon plus encore, l'offre se concentre sur un certain nombre de logiciels. Dont MS-Dos est le plus connu. Et qui font l'objet de luttes au couteau, avec leurs perdants mais aussi le spectaculaire succès d'un Bill Gates à la tête de Microsoft.

L'évolution n'est pas terminée, mais ne peut que rester concentrée sur quelques types. En effet, les entreprises utilisatrices ne peuvent multiplier le nombre des machines qu'elles utilisent.

L'interface homme-machine

Autour de ce coeur largement normalisé, les machines se différencient plus nettement dans leurs "périphériques", autrement dit tous les dispositifs matériels et le logiciel associé qui permet à l'ordinateur d'interagir avec le monde extérieur.

Le monde réel étant supposé continu, cette transition comporte toujours, à un moment quelconque, une conversion avec le mode digital, seul connu de l'ordinateur. La transition comporte aussi, en général, une adaptation énergétique. En général une amplification vers l'extérieur, une réduction à quelques volts en allant vers l'ordinateur.

L'évolution des imprimantes atteste de l'évolution vers la dématérialisation et la digitalisation. A partir de Gutenberg, le choix de caractères séparés pour l'impression des textes fut un grand pas dans cette voie. Au XIXe siècle, l'imprimerie a marché dans les voies de l'automatisation. A partir des années 70, la photocomposition a définitivement placé l'imprimerie dans le domaine digital.

Mais le
papier voit aujourd'hui son importance diminuer au profit de l'écran, qui apporte le mouvement, l'interactivité, les découpages en fenêtre, etc. La souplesse de l'écran permet d'y regrouper des présentations hier considérées comme différents "médias". On parle donc d'application ou de système multimédia, s'il présente à la fois du texte, de l'image, de l'image animée, voire du relief. Et bien sûr, en complément de l'écran, le son.

Pour aller plus loin que l'écran, il faut passer aux lunette ou aux casques de la
réalité virtuelle qui permettent une saturation totale de l'espace visuel et sonore. On parle d'applications immerives. Elles ont un danger: la perte de contact avec le réel, en particulier des phénomènes de vertige. Pour y pallier, on peut chercher au contraire une combinaison des vues réelles et de synthèse.

Pour l'instant, ces dispositifs sont coûteux, de l'ordre de 20 000 F et plus pour un modèle de bonne qualité. Mais si le marché le voulait, l'évolution pourrait être rapide, car les casques et lunettes ont un certain nombre d'avantages par rapport aux écrans: encombrement et consommation réduite, plus grande diversité d'emploi, et sans doute fatigue moindre pour la vue.

L'interface homme-machine. Les logiciels

Autant que les matériels, les logiciels de dialogue ont leur importance, et consomment d'ailleurs une part croissante de la puissance des machines. A la base, les interface graphiques, dont Windows est aujourd'hui le plus connu, mais où la véritable nouveauté fut apportée par le Macintosh. Il y a pratiquement aujourd'hui des standards stabilisés, notamment avec les fenêtres, les menus. Le tableur et le traitement de texte peuvent d'ailleurs se considérer comme des outils de présentation et de dialogue plus qu'autre chose.

On pourra sans doute difficilement faire mieux. En revanche, le passage à l'immersion en relief de la réalité virtuelle obligera à repenser complètement les présentations et les modes d'interaction avec la machine. Il n'existe aujourd'hui aucune solution complète et vraiment satisfaisante. Cela freinera le développement des casques plus longtemps que les coûts et les difficultés techniques.

Il y a encore beaucoup à faire. Par exemple pour la construction des EIS (Executive information systems, système d'information pour dirigeants), on a soigné les présentations par icones. Mais, derrière elles, il faudrait une manipulation plus souple des données. On parle d'hypercubes, à cet effet. Ou, dans d'autres domaines, d'hypertexte. Et, au delà d'hypermédia, et d'hypermonde. Mais en ces matières nous n'avons encore fait qu'effleurer les problèmes.

Une part de l'adaptation consiste aussi à adapter les présentations et l'ensemble des interactions à chaque personne prise individuellement. A commencer par son mot de passe. A suivre, dans Windows par exemple, par le choix des couleurs et le mode de présentation des fenêtres. Mais aussi avec la constitution de basées de donnée personnelles, la mise au point de programmes particuliers (quelques macro-instructions Excel, par exemple). Ici aussi, on pourrait aller beaucoup plus loin.

Mémoires et bases de données

Tout processeur a un minimum de mémoire. Il lui faut au minimum savoir où il en est dans la lecture du programme, et disposer, dans des "registres", des données immédiates sur lesquelles il travaille. Mais, autour de lui, s'organise toute une hiérarchie de mémoires. Plus elles sont proches de l'unité centrale, plus elles sont rapides et chères (notamment les RAM, ou mémoires "vives", dont le temps d'accès est du même ordre que le cycle de base du processeur.

A l'autre extrême, les supports lents mais de très grande capacité: disque optique, CD-Rom, cassettes de bandes magnétiques. A un niveau intermédiaire, le disque dur et les disquettes.

Et n'oublions pas tout à fait le papier. A partir du XVIIe siècle, et pratiquement jusqu'à nos jours, il a porté la plus grande part de la mémoire informationnelle de l'humanité. Il commence à laisser la place aux mémoires électroniques, magnétiques et optiques, toutes sous forme digitale, bien entendu. Le "bureau sans papier" n'est pas pour tout de suite. En partie pour des raisons juridiques: le droit de la preuve doit encore faire des progrès pour passer à l'heure électronique. A long terme, il y a lieu de penser que l'électronique apportera des garanties supérieures au papier. Qui reste combustible, inondable, et falsifiable! En particulier les factures, comme chacun sait.

Matériellement, donc, les mémoires convergent vers un nombre limité de supports, communs à tous les types d'application, de la comptabilité la plus traditionnelle (qui d'ailleurs devient aujourd'hui multimédia) jusqu'au son et à la vidéo.

Du point de vue logiciel, elles s'organisent aussi selon un petit nombre de modèles de base. L'objet standard est ici le fichier, entité bien connue de tous les utilisateurs, mais pas nécessairement facile à définir. On pourrait se contenter de dire: un ensemble de bits représenté par un nom, le cas échéant par une icone, et que l'on peut créer, modifier, recopier ou déplacer d'une mémoire à une autre, au sein d'un même ordinateur, ou entre plusieurs machines plus ou moins distantes. Ou encore le détruire.

A l'intérieur de cette définition, les types se multiplient:
- programmes
- fichiers de données et bases de données,
- texte, son, image.

Un gros fichier que l'on manipule sans se préoccuper de sa structure se désigne souvent sous le nom de "blob" (binary large object).

On peut considérer un "message" comme un objet de type particulier, défini par son émetteur, son destinataire, et un contenu variable. Il comporte en général une partie textuelle classique, souvent rédigée en style plus ou moins télégraphique. On y adjoint de plus en plus des "documents annexes": images, programmes, etc.

Réseaux et télécommunications

Intellectuellement au moins, les télécommunications ont de tout temps été rapprochées, puis intégrées à l'informatique. Jules Verne le voit dès 1863, dans son "Paris au XXe siècle", qui vient d'être exhumé. Le télécopieur, expérimenté à l'époque sous le nom de pantélégraphe par Caselli, participe à la vie des affaires aux côtés des machines à calculer. Et, en 1889, il exprime en peu de lignes ce qui commence aujourd'hui seulement à devenir réalité. Le chef d'entreprise "s'assit devant son pianocompteur électrique, et quelques instants plus tard, il avait le bilan de sa journée". Il s'agit d'une entreprise répartie sur un grand nombre de planètes, et communiquant par faisceaux optiques!

Les matériels de télécommunications emploient aujourd'hui exactement les mêmes composants que les ordinateurs. De même que, dans notre corps, les neurones servent aussi bien au calcul qu'à la transmission des influx nerveux.

Mais tout de même avec une différence notable: les liaisons sans fil. Qui ne se contentent pas de remplacer un fil par un faisceau hertzien, mais permettent aussi la diffusion simultanée sur toute une zone, voire sur toute la planète avec quelques satellites.

Dès que l'on entre dans le domaine des réseaux, le vocabulaire s'enrichit de mots et de sigles par dizaines sinon par centaines. Cependant, pour l'utilisateur et pour le concepteur de systèmes d'information, cette complexité est le plus souvent masquée, laissant seulement apparaître des interlocuteurs proches ou lointains, ou des groupes d'utilisateurs, représentés par des adresses. Internet l'illustre assez nettement.

Le processeur "réseau" n'a pas, en première analyse, des conséquences aussi structurantes que les autres. Les distances semblent supprimées, qu'il s'agisse des étages d'un immeuble ou des établissements d'une même entreprise. Mais cette impression est en partie trompeuse. Même si l'on peut se dispenser (et il faut bien car on ne peut tout savoir) d'entrer dans les problèmes "de bas niveau", il faut au moins se préoccuper des grandes infrastructures de communication, des tarifs et des droits d'accès, qui peuvent avoir, eux des effets fortement structurants.

On peut d'ailleurs regretter que les mots employés à ce niveau soient souvent assez vagues: autoroutes électroniques, téléports... mais vous aurez sur ces questions des exposés fort compétents.

Mais, de toutes façons, les "tuyaux" des télécommunicaions publiques ne représentent qu'une petite partie des coûts télécoms, a fortiori des applications, services ou systèmes d'information

Vers les systèmes ouverts

Tout en concentrant les machines sur un certain nombre de types, l'évolution a fait apparaître l'utilité, sinon la nécessité, de systèmes qui pourraient accueillir des machines de type différents, et à la limite, n'importe quelle machine existante ou à venir. Pour les entreprises, l'objectif est clair: ne plus dépendre de la volonté d'aucun constructeur, ou fournisseur, de manière à :
- ne pas risquer la mise en cause d'un investissement important en cas de difficulté du fournisseur ;
- faire jouer la concurrence au maximum pour obtenir les meilleurs prix, les meilleurs services, les produits les plus nouveaux.

L'ouverture complète reste un voeu pieux, à supposer même qu'elle ait un sens. Mais il s'en réalise des approximations intéressantes, et le modèle le plus à la mode est baptisé "client/serveur".

Personne n'est tout à fait d'accord sur une définition du client/serveur. Limitons nous à une notion simple: la machine client fait commande des tâches à un serveur. Exemple de base: une transaction bancaire. Le guichetier débute la transaction sur son micro-ordinateur, qui assure l'entrée des données, un stockage local, et toute le travail de présentation de l'écran et d'interprétation des actions au clavier ou à la souris. Pour que la transaction complète, il faut faire appel à une base de données où sont stockés tous les comptes. Cette base est stockée sur un serveur de données. Le micro-ordinateur devient son client, et envoie au serveur une requête. Le serveur renvoie la réponse demandée. Le poste client assure la présentation des données au guichetier. Souvent, la transaction fera intervenir aussi un serveur de réseau, qui se chargera de gérer les communications.

Dans un système un peu vaste, le nombre de postes clients atteint plusieurs milliers, les serveurs plusieurs centaines. Et une même transaction peut faire intervenir un grand nombre de serveurs. Une même fonction "serveur", par exemple une base de données, peut être partagée entre plusieurs serveurs, qui peuvent être placés sur des sites éloignés. Idéalement, l'emplacement des serveurs n'a aucune importance pour l'utilisateur.

Normaliser la communication

Si la normalisation est utile pour industrialiser les produits, elle est évidemment indispensable à la communication. Il y a pléthore de normes, ou plutôt elles constituent un vaste ensemble, regroupé dans l'architecture dite OSI, de l'ISO (Organisation internationale pour la standardisation). Les couches vont du niveau physique (lignes, connecteurs) au niveau application, beaucoup plus abstrait.

Au niveau application, on trouve par exemple les normes de messagerie. Mais les normes vont plus loin dans les contenus. Edifact, par exemple, définit la syntaxe et le vocabulaire des échanges commerciaux sans papier (bons de commande, factures, etc.). Midi régit les échanges entre instruments de musique numériques.

Aux normes proprement dites s'ajoutent les standards de fait: les grands acteurs du marché font prévaloir des formats d'échange ou des protocoles de communication, comme TOP/IP, venu d'Internet.

L'objet

Pour construire son système d'information, l'entreprise va acquérir des moyens à l'extérieur. Un point clé est de savoir à quel degré d'assemblage elle va les acquérir.

A un extrême, elle n'achèterait que les objets les plus élémentaires, des matières premières. A l'autre extrême, elle achète un système tellement clés en mains et service compris qu'elle s'en remet totalement, au moins pour l'informatique, à un prestataire extérieur. C'est le "facilities management".

En matière logicielle, les extrêmes sont représentés d'une part par les langages de programmation classique, où la brique de base est l'instruction, et qui permettent donc, au plus près, de construire l'informatique adaptée. A l'opposé, le progiciel intégré apporte l'ensemble des fonctions recherchées.

Idéalement, il faudrait que les objets soient
- auto-protégés (qu'on ne puisse ni les détériorer ou les infecter, ni les pirater)
- auto-testables et dépannables
- auto-documentés. cela devient de plus en plus facile avec des éléments logiciels comme le Win-Help de Windows
- auto-représentés
- auto-facturés, pour coller au plus près à la réalité de leur utilisation, et permettre la rémunération même de petits objets s'ils sont fréquemment utilisés, comme dans le kiosque du minitel.

Architectures

Avec tout ce que nous avons dit sur la convergence, la solution la plus simple ne serait-elle pas d'avoir une machine très grosse pour assurer l'informatique de toute la planète.

Tout d'abord les machines ne sont jamais assez puissantes. Il faut les multiplier. Ensuite, cela coûterait très cher en réseau. Enfin, en cas de panne de cette machine unique, tout s'arrêterait.

Il s'agit donc d'organiser la coopération, toujours plus étroite, d'un nombre toujours plus élevé de machines élémentaires.

CONVERGENCE INDUSTRIELLE: LES ACTEURS

La société industrielle comporte trois grands types d'acteurs: consommateurs, industriels, pouvoirs publics. Une même personne physique pouvant intervenir selon les trois modes, au moins comme électeur dans le dernier cas.

L'acteur individuel

L'acteur individuel est d'abord un consommateur de plus en plus interactif. Pour lui la convergence, c'est d'abord la baisse des prix. Et donc la montée rapide de l'électroménager "brun" et des micro-ordinateurs.

Mais l'individu est aussi acteur dans l'entreprise. Il y emploie les mêmes machines qu'à domicile. Le même téléphone. Le même fax. A quelques nuances près de puissance et de sophistication.

Dans une certaine mesure, la convergence des technologies de l'information abaisse le mur qui séparait souvent la vie domestique de la vie au travail. Le télétravail au sens strict reste rare, mais beaucoup de cadres emmènent du travail à la maison pour le faire sur leur micro. Ou emmènent le micro pour travailler avec. Et la TPE (très petite entreprise) de Mr Madelin apporte un pendant juridique à la possibilité technique de travailler individuellement.

L'acteur entreprise: les fournisseurs d'informatique

Pendant des années, la convergence s'est exprimée par la concentration sur quelques grands constructeurs, et principalement sur IBM. Même la loi antitrust n'a pu s'appliquer, et la fin de la domination de "Big Blue" s'est plutôt faite par une usure de ses structures et par la montée de nouveaux concurrents, principalement Intel et Microsoft.

Que ce soit par le jeu naturel des forces du marché ou par l'intervention des pouvoirs publics, l'économie de marché ne peut accepter une trop forte convergence des acteurs.

Les Japonais, après avoir fait très peur dans les années 1980, n'ont pas réussi à conquérir de position forte dans les zones centrales de l'informatique.

Notons que la convergence informatique/télécommunications ne s'est pas réalisée en termes industriels. IBM a essayé de devenir un grand acteur des télécommunications, en investissant lourdement dans les satellites, puis dans la téléphonie. Sans succès. En revanche, elle joue un certain rôle dans les réseaux, avec son service IBM-IN.

De son côté, AT&T a réussi à se faire une place dans l'informatique, grâce à Unix, grâce aussi au rachat de NCR devenue ATT-GIS. Mais ce succès reste des plus limité.

La guerre fait rage en ce moment sur la couche des bases de données, du middleware.

L'industrie est à la fois la responsable et la victime de la loi de Moore.
- cause car elle paye une grande partie de la recherche, et pratique l'allongement des séries
- victime parce que la baisse rapide des prix, rendue inévitable par la concurrence, l'oblige à se réformer en permanence
- victime aussi parce que l'accélération technologique introduit des contraintes de temps de plus en plus sévères, aussi bien sur la nécessité de sortir rapidement des produits nouveaux (time to market) que de les amortir rapidement, avant qu'ils ne soient dépassés par le produit suivant.

L'industrie a intérêt à la convergence, pour allonger ses séries, faciliter la commercialisation des produits au niveau mondial. Elle la pousse en constituant de vastes alliances autour des grands acteurs: les constructeurs mais plus encore les éditeurs de logiciels, notamment de bases de données. La concurrence va de plus en plus de pair avec le partenariat. De même qu'Air France et Lufthansa, tout en se concurrençant vivement, se son unies pour faire Amadeus.

Les fournisseurs de télécoms

Techniquement, le réseau cherche la transparence Mais le fournisseur cherche la valeur ajoutée. RVA. Brassage

Cette VA sera apportée par des hommes et/ou des automates.

Les entreprises utilisatrices

Au moins sous certains angles, les distinctions traditionnelles entre secteurs primaire, secondaire ou tertiaire s'effacent. Tout produit se vend aujourd'hui avec des services associés. Même les produits agricoles, miniers ou métallurgiques incorporent une part croissante de matière grise. Toutes les entreprises, convergent donc vers un même type basé sur un important système d'information. Elles se spécifient par
- un certain nombre d'actifs matériels et immatériels qui constituent leur fonds de commerce
- la compétence de leur personnel.

Les pouvoirs publics

Pas d'économie de marché sans un minimum de pouvoirs publics, ne serait-ce que pour assurer la sécurité des vendeurs comme des acheteurs, faire respecter les règles du marché et, le cas échéant, jouer un rôle régulateur pour empêcher le marché de suivre un certain nombre de pentes aussi mortelles que naturelles, en particulier la constitution de monopoles.

En matière informatique, la politique industrielle des gouvernement s'est rarement avérée efficace, en tous cas en Europe. Et même au Japon, ce n'est pas tellement évident.

En revanche, les télécommunications étant au départ un monopole d'état, leur convergence avec l'informatique conduit assez logiquement à une privatisation. Cependant, du fait de l'importance des télécommunications pour la Nation, des problèmes de reconversion (emploi)... il faut procéder avec une certaine prudence, d'où l'importance de la réglementation.

Enfin, la collectivité territoriale, outre qu'elle est un utilisateur non négligeable d'informatique, a un rôle à jouer sur son territoire, tout particulièrement pour les réseaux au niveau départemental et surtout régional: câble, réseaux régionaux et leur liaison avec les réseaux nationaux et internationaux, téléports.

Il faut donc bien distinguer la réalité et les tendances des composants technologiques et celle des réseaux d'acteurs, individus ou entreprises. Quelles que soient les tendances technologiques naturelles, chacun a intérêt à contrôler un maximum de composants et de valeur ajoutée. La convergence technique de base sur le silicium n'induit donc pas, en tous cas pas automatiquement, que les télécommunications doivent passer sous la coupe de l'informatique (ou réciproquement). Elle ne permet pas non plus de décider "scientifiquement", du sort de France-Télécom et des opérateurs de réseaux à valeur ajoutée.

En première analyse, cependant, on proposera à la discussion que les entreprises utilisatrices ont intérêt à conserver la complexité chez elles. Et à limiter le service public à la fourniture de lignes, évaluées en fonction de leur débit, de leur fiabilité et de leur prix. Le plus faible possible.

Si elles veulent sous-traiter une partie plus ou moins large de leurs services et de leurs activités internes, cette externalisation peut aller à toutes sortes de catégories d'acteurs. SSII ou opérateurs de télécommunications, mais aussi organismes professionnels (Gencod), sociétés ad hoc (Amadeus), constructeurs (IBM, Bull), etc.

L'essentiel, pour chacun, est de contrôler de la valeur ajoutée et de la réaliser par une combinaison d'hommes et de machines la plus compétitive possible. Avec un ancrage dans certaines "possessions" matérielles ou immatérielles, base du métier et plus généralement du fonds de commerce de l'entreprise.

CONVERGENCE DES APPLICATIONS

Des machines séparées aux applications intégrées

L'informatique s'est "appliquée" progressivement à l'ensemble des fonctions d'une entreprise. On a très vite pensé à relier tout cela. Au départ, se créait un lien tout naturel par le matériel lui-même, car son prix ne permettait pas d'en avoir plusieurs. Il fallait donc y placer toutes les applications.

Ce problème se pose moins aujourd'hui. La philosophie du client/serveur conduirait même plutôt à mettre en place un serveur (ou un groupe de serveurs si nécessaire) pour chaque application.

Mais la convergence a des objectifs plus profond. En effet, les grandes applications s'appliquent toutes à la même entreprise, et donc des liens souvent étroits entre elles. La gestion du production découle de la gestion commerciale et entraîne la gestion des approvisionnements. Toute action a une contrepartie comptable. Et il faut gérer les hommes en fonction des activités aussi bien commerciales que de production.

D'où, dès les années 1970 au moins, l'apparition de la "gestion intégrée", ou des "management information systèmes" organisant toutes les applications comme l'entreprise, en une pyramide dont le président et son état-major forment le sommet. Au départ, cette convergence était empêchée par le manque de puissance des machines. Seule la comptabilité, en quelque sorte, fournissait une information vraiment intégrée, mais très partielle.

Cela devient plus largement possible aujourd'hui. On peut considérer que tous les serveurs sont connectés et que l'un d'entre eux a précisément pour mission d'informer la direction générale, voire d'en prendre les ordres. Dans certaines entreprises, surtout petites, cela est relativement simple et déjà en application. Dans les grandes, on se heurte à des problèmes de personnes mais aussi de différences culturelles entre services. L'intégration ne pourra s faire que progressivement, et en bâtissant parallèlement les moyens permettant à chacun de conserver son autorité légitime.

En tant qu'utilisateur, les collectivités territoriales ont une caractéristique particulière: le grand nombre des applications différentes, et le relatif manque de liens entre elles. Non seulement pour des raisons techniques: le fichier électoral n'a que des liens éloignés avec l'état civil dans une zone urbaine où la population change constamment. La gestion des services techniques n'a pas grand chose à échanger avec l'aide sociale. De plus, la protection des libertés individuelles s'oppose à de trop fortes connexions entre les différents fichiers.

Les architectures client/serveur conviennent donc particulièrement bien aux collectivités territoriales. Elles y tendent à la fois en déchargeant leurs systèmes centraux d'une part croissante des applications; d'autre part en connectant ensemble les micro-ordinateurs ou les serveurs jusqu'ici autonomes, de manière à constituer un ensemble à la fois cohérent, connecté, et respectueux des droits comme des responsabilités de chacun?

La convergence des métiers

Si les techniques convergent, les professionnels se confondent-ils? Oui et non. Tout informaticien se heurte peu ou prou à des problèmes de réseaux. D'ailleurs les systèmes ouverts mettent le réseau au coeur de l'architecture. Et les télécommunicants manient des ordinateurs plus que toute autre chose. Mais les métiers restent différents.

Les télécommunications, autrefois apanage des services généraux, sont maintenant souvent placées sous l'autorité du service informatique. La spécialisation se fait au niveau des techniciens Eventuellement habilités par les fournisseurs, comme les "CNE" Certified Novell Engineer".

Du point de vue de l'entreprise, les télécommunications peuvent représenter un budget important, aussi important que celui de l'informatique peut-être. Mais elles restent essentiellement un problème d'intendance. Il faut gérer des débits et des coûts. Surveiller des consommations. Cela ne pose pas des problèmes d'architecture aussi structurants que ceux de l'informatique avec ses quatre types de processeurs.

Plus généralement, les informaticiens et les utilisateurs ne vont-ils pas se confondre? On a souvent présenté l'arrivée de la micro-informatique comme la fin des services centraux et des "grands prêtres en blouse blanche". De plus actuellement, on voit une remise en cause des directions informatiques centrales des grands groupes.

En réalité, la coordination des différents systèmes d'information d'une entreprise reste trop difficile pour se pratiquer sans spécialisation. Elle prend trop de temps pour se faire en complément d'une autre activité. Pour maîtriser une technique toujours évolutive et satisfaire des demandes qui croissent aussi vite, sinon plus, que les possibilités technologiques, il faut des professionnels.

Cependant les informaticiens eux-mêmes s'interrogent parfois sur leur rôle. Ils cherchent leur voie entre deux extrêmes.

D'une part un profil bas. L'informatique est au service des utilisateurs, des directions opérationnelles. Elle doit se contenter de répondre au mieux à leurs demandes, dans les meilleures conditions de qualité et de prix. Cette attitude a plusieurs inconvénients:

- de nouvelles technologies deviennent disponibles immédiatement ou à moyen terme; l'informaticien est bien placé pour les détecter et les évaluer; s'il est trop passif, la ville risque de passer à côté d'opportunités importantes;

- l'efficacité de l'ensemble a besoin de cohérence entre les matériels, les infrastructures réseau les logiciels; de bonnes applications doivent pouvoir s'appuyer sur une architecture solide, qui impose, de temps au temps au moins, des investissements à long terme; parfois sans aucun avantage immédiatement perceptible par les utilisateurs; s'il n'a pas le courage de les obtenir, une multitude de systèmes disparates rendront peu à peu la communication impossible, la maintenance coûteuse et la qualité de service déplorable.

A l'opposé, un informaticien trop ambitieux, surtout s'il a plusieurs années d'expériences en collectivité territoriale, peut avoir l'impression de mieux connaître le travail que les responsables opérationnels eux-mêmes. Il risque alors d'imposer des solutions inadaptées. Et de toutes façons mal acceptées par les utilisateurs, donc mal mises en oeuvre.

Il lui faut donc en permanence chercher un équilibre. En fonction de sa personnalité: plus ou moins technicien, plus ou moins manager, plus ou moins fonceur. Et de la position des autres acteurs, à commencer par celle du maire. Cet équilibre est d'autant plus difficile à trouver que la technique ne se laisse pas aisément maîtriser. L'informaticien, en quelque sorte, n'est même pas sûr de ses arrières!

Homme et machine: convergence ou exclusion?

Depuis qu'il existe des machines, on se demande si elles créent du chômage ou au contraire, une fois passée la période d'adaptation, de nouveaux emplois. Globalement, on ne peut conclure que de manière optimiste, car, du paléolithique au néolithique, de la civilisation classique à l'ère industrielle, la population du monde s'est multiplié par mille, et le nombre des chômeurs s'y mesure toujours en pour-cent. Mais il n'est pas prouvé que le phénomène se reproduira avec la civilisation informationnelle.

Dans les phases actuelles de la montée des machines en densité, l'homme ne suit plus, ou seulement très lentement. Il se trouve donc ipso facto exclu, comme un corps étranger, de la partie chaude des machines. Ou ne s'y insère plus qu'en se pliant à d'étroites contraintes.

Le taylorisme ne laisse plus qu'une place formalisée dans la chaîne. Et le consommateur, lui aussi, se trouve massifié.

La société informationnelle va-t-elle conduire à un nouveau taylorisme, pire encore que le premier. La montée du workflow peut le laisser craindre. Il s'agit d'utiliser l'informatique pour faire circuler les dossiers administratifs. Mis sous forme électronique par scannerisation, les dossiers passent instantanément d'un poste de travail à l'autre et se règlent ainsi plus rapidement. C'est l'équivalent, en plus moderne, de la chaîne industrielle. Cette organisation s'accompagne, comme dans le taylorisme, d'un découpage plus fin des tâches à accomplir.

De même, le "business process reengineering", selon l'expression forgée par Hammer et Champy, réorganise l'entreprise de fond en comble. Il travaille résolument avec des "processus", pour se débarrasse de l'organisation ancienne, les informatise au maximum, et se préoccupe ensuite d'y affecter les hommes nécessaires, en accroissant leur efficacité au maximum.

Dans les deux cas, on vise un accroissement sensible de productivité. Donc, à fonctions égales, une sensible réduction des effectifs.

Numériquement, l'homme se trouve donc toujours plus exclus du système automatisé. Et mis au chômage si, dans le même temps, le développement économique ne crée pas de nouvelles activités, de nouveaux emplois.

Se trouve-t-il aussi exclu du système en tant que consommateur, ou au contraire y retrouve-t-il toute sa place comme "client roi"... L'hypermonde est plus vaste que les humains. On craignait la massification, on risque tout autant l'excès de spécificité des cultures et des univers individuels. Les optimistes y verront une raison de croire de bons équilibres se dégageront. Les pessimistes diront que l'on peut être à la fois massifié et isolé.

Un scénario catastrophe

Le passage à l'immatériel conduit à envisager, parmi d'autres, un scénario économique catastrophe: concentration de toute l'économie sur l'informatique, concentration de toute l'informatique sur des produits pratiquement gratuits.

Jouent dans le sens de ce scénario:
- la concurrence,
- la loi de Moore,
- les caractéristiques particulières de la société immatérielle, avec son prix marginal de stockage et de transmission des données,
- la difficulté de mettre en place une "propriété intellectuelle" adéquatement protégée
- volonté de gratuité (universitaires, ONG...), pratiquée par de nombreux émetteurs, et bien entendu du recherchée par un grand nombre d'utilisateurs.

Jouent contre ce scénério:
- la volonté de contrôle des grands acteurs économiques, (Microsoft),
- le progrès des travaux sur la propriété intellectuelle,
- la nécessité d'organiser le corps social, et d'éviter le chaos qui pourrait découler d'une société de la gratuité...

Deux systèmes plus autonomes

Et cela nous ramène à une question que vous vous êtes peut-être posé au début de mon exposé: comment peut-il y avoir déterminisme dans le développement de l'informatique, puisque c'est nous, les humains, qui la construisons.

Je n'ai pas de réponse définitive à cette question, de nature philosophique, comme de savoir si l'histoire a un sens. Je crois que nous sommes libres de naviguer, mais sur un fleuve dont le sens est bien déterminé. Et même les rives. L'homme ne s'est pas créé lui-même, et l'évolution de l'humanité suit depuis toujours des lois qui dépassent la volonté des individus et même des groupes de décision démocratiques.

A l'ère moderne, le simple fait d'accepter la loi du marché, d'admettre qu'une "main invisible" oriente dans le bon sens une économie libre, revient à accepter qu'il existe un déterminisme extérieur à nous. Que certains attribuent à un dieu personnel, ou à la mère nature.

Le marché, par lui-même, apporte un ensemble de lois qui déterminent l'évolution. Le libre jeu de la compétition fait toujours marcher la machine la plus performante, la moins chère. Avec une indifférence a priori pour les conséquences morales de son développement. Et comme, simultanément, nous appliquons les principes du marché au travail même de l'homme, les lois s'y appliquent aussi. De plus, le marché a, par construction, conduit naturellement au monopole car, dans la plupart des cas, le meilleur s'assure des avantages décisifs qui lui permettent d'éliminer ses concurrents. Bref, le développement déterministe de l'informatique résulte pour une grande part du simple fait que nous avons choisi l'économie de marché comme régulateur, et non le choix politique. L'échec de toutes les autres formes d'économie laisse à penser que, de toutes façons, nous n'avons pas le choix.

Pouvons-nous, alors, maîtriser l'informatique? Oui, à peu près comme on maîtrise un fleuve, un torrent. On peut le canaliser, le régulariser, l'employer à porter nos bateaux, à faire tourner nos moulins, en boire l'eau et même nous y baigner pour le plaisir.

Une grande erreur consisterait à penser que l'informatique a atteint ton terme, sa maturité. Il n'en est rien. Nous sommes encore loin d'avoir exploité les technologies existantes, de les avoir pleinement déployé sur le marché. Mais, de plus, il reste encore un considérable gisement de croissante technologique, dont nous ne pouvons que difficilement, ou pas du tout, prévoir les conséquences et les applications. Car, à la différence du temps de Jules Verne, ces innovations vont bouleverser en profondeur nos modèles mentaux et sociétaux.

Une des formes de régulation consiste, ici ou là, à figer le développement, tout en préparant le futur. A savoir attendre le moment où un aspect particulier de la technologie devient suffisamment fiable, économique, stabilisé.

Deux autonomies liées

L'ordinateur, comme toutes les machines, est "un bon serviteur qui doit trouver son maître". Mais il a aussi sa dynamique propre. Qui n'est pas contradictoire, qui et même concomitante au développement de l'homme comme individu et comme société.

D'une part la communauté des machines, du fait de notre travail, de nos recherches, se développe sans cesse, s'étend à tout l'univers, renforce sa cohérence, ses échanges internes, sa résistance aux pannes, son autonomie. Peut-être même son intelligence.

D'autre part la communauté des hommes, appuyée sur les machines, passionnée par leur développement même, étend elle aussi sa maîtrise de l'univers, augmente sa cohérence, réduit ses guerres ou au moins leurs aspects physiques, accroît sa liberté, et pourquoi pas son intelligence.

Et, de plus, les relations entre les deux communautés s'accroissent. Paradoxe peut-être. Plus de communication va de pair avec plus de liberté.

Vers la fusion de deux chimies ?

Irons-nous plus loin dans la communication? Entre le monde des machines, c'est à dire essentiellement du silicium, et celui des hommes, fondé sur le carbone, tisserons-nous des relations matérielles plus fortes que celles, traditionnelles, de notre système sensori-moteur.

Irons-nous jusqu'à implanter du silicium dans notre corps? Cela nous choque, bien sûr. Pourtant, nous portons tous, à des degrés divers, des prothèses. Nous trouvons normal d'installer sous notre peau une hanche artificielle, un pacer cardiaque, demain des prothèses auditives. Au nom de quel principe ne pas aller plus loin. Ou, si l'on veut, comment décider jusqu'où nous devons aller?

Réciproquement, irons-nous jusqu'à implanter des organes biologiques dans les machines? Nous l'acceptons sans difficulté tant qu'il ne s'agit pas d'humains. La loi, en revanche, interdit de faire commerce de tout tissu humain. Les biotechnologies appellent en fait un droit spécifique, qui reste pour l'essentiel à faire.

Que faut-il faire? Et comment décider de ce qu'il faut faire, ce sera la grande tâches des décennies qui viennent.

L'informaticien en sandwich

En dessous de lui, les composants matériels et logiciels de base, élémentaires.

Au dessus de lui, les hommes et les organisations avec leurs stratégies, leurs politiques, leurs affinités, leurs sentiments bons ou mauvais, leur désir de transcendance. Le réseau des personnes avec ses caractéristiques matérielles, biotope, les personnes sont quelque part, ont un domicile, etc.: la chimie du carbone leurs structures sociales les entreprises,

Lui, au milieu, urbaniste, architecte. Mais souvent aussi maçon. Franc ?