Compléments du livre |
|
Retour au sommaire |
Retour au sommaire |
Dans ce bref panorama des systèmes informatiques
et robotiques, nous n’avons pas mentionné la réalité
virtuelle et la vie artificielle, deux mondes qui sont les produits de
l’augmentation de puissance des ordinateurs et des réseaux.
Il s’agit de domaines de recherche qui, bien que distincts, posent
tous deux des questions épistémologiques qui nous mettent
au cœur de ce que David Deutsch a nommé “ l’Etoffe
de la réalité ” . Nous dirons également quelques
mots d’un mode de calcul et de modélisation informatique
peu connu du grand public, qui intrigue pourtant par sa puissance et ses
mystères de nombreux scientifiques, les Automates cellulaires (AC) La réalité virtuelle est assez populaire
aujourd’hui, vu l’usage intensif qui en est fait dans les
films et dans les jeux électroniques. Il s’agit de créer,
en utilisant les ressources de plus en plus riches des générateurs
informatiques de sons, d’images et autres perceptions sensorielles,
des mondes proches ou différents du nôtre, dans lesquels
les spectateurs-acteurs que nous sommes pourront être plongés,
grâce à des interfaces spécifiques (casques, salles
équipées, etc.). La réalité virtuelle n’est
pas seulement un jeu ou un instrument de formation (par exemples les simulateurs
de pilotage). L’objectif, selon les termes de Denis Berthier, dans
son livre Méditations sur le réel et le virtuel est «
de construire un monde virtuel et y interfacer un être humain en
lui donnant l'impression qu'il y perçoit et agit de manière
naturelle : perception en trois dimensions, immersion sensori-motrice,
interaction en temps réel, etc. ». Ce qui en découle est très important, non seulement au plan pratique mais au plan philosophique : il sera de plus en plus difficile de distinguer le réel et le virtuel, dans la mesure où nos perceptions s’organisent dans le cerveau de la même façon quelle que soit la source dont elles proviennent. Il s’en suit qu’en principe, avec des ordinateurs d’une puissance considérablement augmentée et la possibilité d’y connecter nos cerveaux dans les deux sens de l’entrée et de la sortie (perspectives qui ne sont qu’une question de temps), rien n’empêcherait de faire vivre des humains, toute leur existence durant, dans des mondes artificiels ressemblant au nôtre ou au contraire radicalement différents. Ce que nous appelons la réalité, de ce point de vue et comme le suggère David Deutsch, pourrait résulter d’une création permanente engendrée par un univers profond fonctionnant sur le mode computationnel. Nous avons déjà évoqué cette possibilité dans le chapitre 1, à propos des enseignements de la physique quantique. A titre de méditation scientifique, on peut évoquer l’hypothèse de Nick Bostrom de l’Université d’Oxford (Voir l’article de Jean-Paul Delahaye dans Pour la Science, août 2004, p. 94). Nick Bostrom est par ailleurs un de spères du mouvement transhumaniste (Chapitre 6) ) selon laquelle nous pourrions tous être des créatures virtuelles créées par des civilisations infiniment plus avancées que nous technologiquement. Cette hypothèse repose sur plusieurs postulats : 1 - il existe des civilisations assez avancées (post-humaines) pour a) simuler complètement le cerveau humain et b) décider de le faire ; 2 - compte tenu du principe dit d’indépendance du substrat, il est impossible de distinguer le contenu d’un cerveau humain de celui d’un cerveau artificiel ; 3 - compte tenu du très grand nombre de créatures simulées que pourrait produire et disperser dans l’univers une civilisation capable de simuler le cerveau humain, nous avons une très grande probabilité d’être une telle créature plutôt qu’un être “ naturel ”. Certains objectent que nulle simulation, aussi parfaite soit-elle, ne pourrait éviter les bugs divers, bugs que, si nous étions simulés, nous remarquerions sous forme de défauts de fonctionnement. Mais à cela on répond que notre société et nous-mêmes sommes suffisamment porteurs d’incohérences internes (sans parler du fait que nous sommes encore incapables de résoudre ce que nous nommons des mystères scientifiques) pour que ceci traduise précisément l’existence de bugs dans les logiciels produits par ceux qui simulent notre fonctionnement. On s’étonnera peut-être d’apprendre que l’argument résumé ci-dessus, dit de la simulation, fait l’objet de discussions intenses parmi les scientifiques et les philosophes s’intéressant à l’univers calculable. Nous ne sommes pas obligés d’adopter des visions aussi extrêmes concernant la puissance de la simulation. Les citoyens que nous sommes auront déjà beaucoup de mal, s’ils veulent comprendre les influences qui s’exercent sur eux, à distinguer les situations simulées des situations simplement observées. Les médias, pour diverses raisons, visant notamment à augmenter leur audience par la recherche de sensationnel, auront de plus en plus tendance à mêler les différents messages. En ce qui concerne la recherche scientifique, par contre, la simulation, conjuguée avec la vie artificielle (voir ci-dessous) constitue un extraordinaire outil permettant de créer des univers représentant fidèlement des situations non observables directement. Bien sûr, la fiabilité de telles constructions dépend de la qualité scientifique des informations utilisées au départ, mais la possibilité offerte à l’observateur de visualiser des phénomènes qui sans simulation demeureraient abstraits augmente considérablement le champ de l’imagination créatrice. C’est aussi le cas pour des professions chez qui le regard joue un rôle essentiel, comme en ce qui concerne les chirurgiens. Permettre à un chirurgien de se plonger au cœur d’un organe reconstitué par simulation l’aidera le moment venu à utiliser au mieux les images fournies par les micro-robots d’intervention.
La vie artificielle, selon les termes de Jean-Philippe Rennard, auteur d’un excellent livre du même nom sur la question (1) a pour objet de mieux comprendre ce qu'est la vie en recherchant et en tentant de reproduire les processus généraux qui la gouvernent. Mais elle cherche aussi à transposer les mécanismes du vivant au sein d'algorithmes et d’artefacts spécifiques (biomimétiques) à l'efficacité souvent surprenante ”. Les plus utilisés des outils employés par les chercheurs en vie artificielle sont les automates cellulaires. Un automate cellulaire (AC) se représente sur un écran d’ordinateur, mais le principe peut en être décrit sans faire appel à l’informatique. Les premiers AC furent d’ailleurs réalisés sur papier. Il suffit d’imaginer une rangée de cellules dont les unes sont noires et les autres blanches. On applique à cette rangée une règle aussi simple que possible : par exemple, à partir de la rangée initiale, qui ne comporte qu’une cellule noire, construire une seconde rangée qui se superposera à la première et qui respectera la règle suivante (n’importe quelle règle étant évidemment possible) : toute cellule blanche voisine d’une noire deviendra noire. On construira successivement, par application de cette même règle, d’autres rangées qui elles aussi se superposeront aux deux précédentes. Au bout d’un certain nombre de passes, on verra se dessiner un motif en forme de triangle noir constitué de l’ensemble des rangées superposées, la dernière rangée formant la base du triangle étant entièrement noire. Il s’agit d’un motif que rien ne laissait prévoir au vu de la règle et de la disposition initiale des cellules. Avec des règles un peu différentes, on fera apparaître des motifs tous différents et beaucoup plus complexes. En utilisant un ordinateur, on peut visualiser le processus, ce qui fait apparaître des figures mouvantes analogues à des colonies d’insectes, à des croissances végétales et autres formes vivantes. Les techniques de la vie artificielle offrent aujourd’hui
de très nombreux programmes pour simuler des processus physiques
dynamiques ou des processus vivants. Elles servent aussi à la création
artistique, dans un domaine généralement qualifié
de Computer Art, dont l’artiste français Bernard Caillaud,,
avait fait une de ses spécialités (Bernard Caillaud, La
création numérique visuelle. Voir Chapitre 7. ) . L’objectif de la vie artificielle est l’étude de propriétés émergentes à partir d’entités et de propriétés définies au niveau local. Ainsi, les observations portent sur des populations plutôt que sur des individus seuls. Il peut donc émerger de ces groupes des comportements globaux inédits n’étant pas commandés par des propriétés individuelles. Nous avons vu précédemment que cette façon d’observer est de plus en plus utilisée par les sciences de la vie et les sciences humaines pour comprendre les comportements de groupe. L’évolution des populations artificielles fait appel aux modèles darwiniens reposant sur l’ «algorithme » reproduction, mutation, sélection, ampliation. On y retrouve en les transposant les concepts de génotype, phénotype, mutation et espèces. On y retrouve aussi les notions devenues courantes en biologie : l’apparition de niches écologiques, de comportements coopératifs et plus généralement de propriétés globales des groupes. La question est souvent posée de savoir qui s’inspire de qui : les biologistes ou les programmeurs de la vie artificielle ? Comme toujours dans les sciences nouvelles qui reposent sur une forte coopération entre disciplines de la vie et disciplines de l’intelligence artificielle, l’interfécondation est désormais la règle. Chaque fois qu’elle est possible (Chaque fois notamment que les frontières entre formations et carrières le permettent…), la constitution d’équipes composées de chercheurs appartenant à ces deux séries de disciplines est un gage de succès. On distinguera la vie artificielle, qui met en œuvre des agents informatiques, et la biologie artificielle ou de synthèse, qui fabrique des objets vivants (par exemple des virus très simplifiés), en assemblant des éléments à base d’acides aminés et autres molécules biologiques. Nous avons examiné cette direction de recherche, en plein développement, dans le chapitre 2 consacré à l’évolution.
L’importance des automates cellulaires est démontrée par un ouvrage très ambitieux, A New Kind of Science NKS), dû au mathématicien et informaticien Stephen Wolfram (2). Ses propositions véritablement stupéfiantes sont encore loin d’être exploitées, bien qu’il ne soit plus possible aujourd’hui de les ignorer. Si les automates cellulaires (AC) ne sont pas une nouveauté, comme nous l’avons vu plus haut, jamais personne ne les avait encore présentés dans une perspective si riche, traçant un chemin des plus originaux pouvant mener, selon l’auteur (qui n’a en principe rien d’un illuminé) à une nouvelle connaissance du monde et de nous-mêmes. Dans cet ouvrage, Wolfram démolit impitoyablement la place éminente jusqu'ici donnée en sciences aux mathématiques. Il veut montrer que, dans toutes les disciplines scientifiques, l’emploi judicieux de la modélisation et simulation par AC suffit à la recherche. Les AC s’inscrivent dans le développement du calculateur universel, dont les principes ont été posés par la machine de Turing. Il s'agit de travailler avec des entités discrètes, pas à pas, en principe en langage binaire. Ceci postule que le continu qui relèverait de calculateurs analogiques peut être réduit au discret. Le traitement pas à pas est d'autant plus efficace que les algorithmes utilisés sont simples. La règle ou le programme simples sont vraiment la fondation de l'approche de Wolfram, qu'il retrouve partout à l’œuvre dans la nature. Ceci conduit directement aux AC, qui sont l'outil utilisé par l'auteur pour formaliser et illustrer toutes ces hypothèses. Les premiers chercheurs en intelligence artificielle en avaient fait un instrument essentiel pour la construction de modèles simulant l'évolution des systèmes complexes, notamment en biologie. Certains les emploient toujours, tels Thomas Schelling. Mais ils furent abandonnés (sauf exception) face au développement des modèles mathématiques complexes eux-mêmes supportés par les programmes informatiques lourds permis par les ordinateurs modernes. La redécouverte des AC (ou plutôt l'approfondissement du domaine) par Stephen Wolfram s'appuie et s'appuiera d'ailleurs de plus en plus sur les énormes ressources permises par les stations de travail moderne, le travail en réseau de type Grid et les progrès prévisibles des calculateurs numériques. On peut penser que les AC proposerons également des algorithmes bien adaptés aux futurs calculateurs quantiques. On se retrouvera en effet là dans le discret microscopique, c'est-à-dire ce qui se passe au niveau de la particule physique ou de la molécule biologique. Avec les AC on pourra faire le lien avec les possibilités, théoriquement infinies, de calcul multi-directionnel (multiways) permis à la particule quantique. Autrement dit, les AC pourraient explorer des hypothèses relevant du multivers, c’est-à-dire des univers parallèles. Avec un minimum de culture mathématique (3), on peut à la lecture de l’ouvrage de Wolfram se rendre compte que la modélisation des problèmes les plus complexes, ceux de la physique quantique, ceux de la relativité générale et même ceux de la théorie des cordes ou autres théories intéressant la gravitation quantique encore en devenir, peuvent être envisagées à partir d’AC judicieusement choisis - ce que les mathématiques actuelles sont bien en peine de faire. Ainsi Wolfram montre comment on peut représenter un univers où le temps est quantifié sous forme de particules, ou bien un autre univers n’ayant plus de références temporelles et spatiales tout en conservant une structure informationnelle - ce qui correspond peut-être à ce qui se passe au cœur des trous noirs. Bien sûr, un AC ne peut prétendre décrire vraiment le cœur des phénomènes cosmologiques, mais il peut nous en donner une image, nous convaincre que certaines hypothèses théoriques seraient physiquement possibles - en général à partir de l’utilisation de règles initiales très simples. De telles démonstrations, si les physiciens les admettaient comme valides, pourraient les conduire à bâtir de nouvelles hypothèses pour de futures vérifications expérimentales. On se trouve ainsi, vis-à-vis du cosmos, dans la situation où étaient les premiers voyageurs utilisant des cartes. Même si celles-ci n’étaient en rien capables de reproduire pour eux les détails utiles des continents, elles pouvaient leur suggérer des idées pour aller sur le terrain découvrir ce qu’il en était, plutôt que se fier à une symbolique poétique, telle celle d’Homère dans l’Odyssée. Le point essentiel est, nous l’avons rappelé, que l’évolution des AC dirigée par des instructions ou règles ne peut être définie ni prévue à l'avance. La grande découverte de Wolfram est de montrer que les AC, à partir de règles simples judicieusement choisies, peuvent dans certains cas produire ce qui pour nous sera du complexe et de l'indécidable sans limites prévisibles, pour peu que les ordinateurs en charge disposent du temps et des ressources informatiques en quantité suffisante. L'intelligence artificielle utilisant les AC pourra produire des artefacts de systèmes naturels en bien plus grand nombre que ce que l'ensemble des humains pourraient tester et implémenter dans des systèmes physiques et biologiques du monde réel. Il s’agira de ce que l’auteur a nommé des “ complexités intrinsèques ” dont nous pourrons constater l’émergence mais dont notre entendement sera incapable de comprendre les processus de génération - de même sans doute que nous sommes, pour le moment encore, et sans doute définitivement, incapables de comprendre les processus intrinsèques ayant permis la naissance de notre univers. (4) Stephen Wolfram prend soin de nous mettre en garde. Les AC ne sont que des modèles informatiques des processus s’exerçant dans la nature, que ce soit dans le monde physique, ou biologique. Ils ne peuvent nous renseigner sur ce qui se passe au niveau des arrangements atomiques et moléculaires des entités naturelles. La croissance d’un flocon de neige simulé par un AC ne nous renseigne pas sur la façon dont les tensions entre molécules d’eau déterminent celle d’un vrai flocon. Mais les AC ont l’avantage irremplaçable de montrer que ce seraient chaque fois - sauf exception, évidemment - des règles simples identiques ou comparables qui s’appliqueraient. Ils nous donnent ainsi un outil indispensable pour démêler derrière la complexité apparente les règles simples qui sont à l’œuvre. Ceci permet alors de les étudier au cas par cas. Ceci ne veut pas dire que les AC ne nous aideraient pas à traiter les problèmes posés par la recherche fondamentale : physique quantique, astrophysique, biologie, etc. Selon Wolfram, convenablement choisis et mis en oeuvre, utilisant les ressources des nanotechnologies et - si on le réalise - de l'ordinateur quantique, les AC (ou plus exactement des programmes ou algorithmes simples fonctionnant comme eux) devraient alors nous placer au cœur de l'évolution des systèmes physiques et biologiques de notre univers. Permettront-ils de développer l'analyse des systèmes physiques et naturels que jusqu'à présent ni les technologies ni les mathématiques n'avaient permis de modéliser; comme par exemple ce qu'est la vie, ou la conscience ? Permettront-ils aussi en amont de remonter aux lois fondamentales réglant l'évolution de l'univers, soit sur le plan cosmique macroscopique, soit sur celui, quantique, de la particule élémentaire ? Il s'agirait alors non plus de construire des modèles de la réalité mais de reconstruire la réalité avec les mêmes méthodes et moyens qu'elle a utilisés pour construire notre univers jusqu'à ce jour. Dans cette direction, pourrait-on construire aussi des réalités différentes, telles que celles existant peut-être dans d'autres univers ? Stephen Wolfram pour sa part ne renonce pas à découvrir l'équation du Tout dont rêvent beaucoup de cosmologistes, tels Stephen Hawking. Mais il s'agira alors ici d'une équation simple reposant sur le modèle d'un AC universel obéissant à des règles adéquates elles-mêmes simples, qui restent évidemment à trouver. Inutile de dire que le concert des physiciens a déjà commencé à s'élever contre de telles perspectives, criant à l'ubris onirique. Certains parlent même d’une escroquerie intellectuelle. Mais eux-mêmes, ou plutôt les plus audacieux d’entre eux, tel David Deutsch précité ou Lee Smolin, un des pères de la gravitation quantique envisagent actuellement des perspectives tout aussi bouleversantes. Nous y avons fait allusion dans le chapitre 1. Bornons-nous à retenir que ces théories existent et sont admises par des hommes dont on pourrait dire sans exagération qu’ils sont les plus intelligents de la génération actuelle. Si les AC permettent de rendre ces théories plus intelligibles que ne le font les formalismes mathématiques, alors il faut les utiliser. Mais les AC ne sont pas seulement des outils commodes pour procéder à des modélisations ou à des calculs. Il semble bien qu’ils nous introduisent au cœur même d’un autre secret de l’univers profond, s’ajoutant à celui de la génération de réalités virtuelles - ou plutôt découlant de propriétés identiques : la capacité à générer de la complexité à partir de règles simples, selon des processus qui ne sont pas compréhensibles par l’esprit humain, et par conséquent ni prévisibles ni programmables. Nous avons déjà évoqué ce phénomène à propos du monde quantique, dont peuvent émerger des phénomènes que l’esprit humain est capable de constater mais qu’il est incapable d’expliquer. De plus en plus de cogniticiens en concluent que le cerveau humain, bien adapté au monde macroscopique, est impuissant à comprendre et peut-être même à voir des phénomènes relevant d’un monde sous-jacent dont la connaissance aux « âges farouches » (5) n’était pas nécessaire à la survie. Cette impuissance sera-t-elle définitive ou disparaîtra-t-elle au fur et à mesure que le cerveau sera confronté pour survivre à des phénomènes que le développement spontané des sciences et des technologies aura fait émerger sans que nul, évidemment, ne l’ait voulu ? Il s’agit là d’un des enjeux de la robotique autonome et de la vie artificielle. 1 : Jean-Philippe Rennard, La vie artificielle. Où la biologie rencontre l'informatique, Vuibert Informatique, 2002. Les lecteurs pourront se reporter au site du livre ( http://www.rennard.org/iva/) où ils trouveront de nombreuses démonstrations faisant appel à la programmation Java. Voir aussi l’article http://www.automatesintelligents.com/biblionet/2002/dec/rennard.html 2 : Wolfram Editions 2002. Le livre a été récemment traduit en français par Bernard François, aux Editions Wolfram. Il n’est pas encore publié. On trouvera toutes informations et démonstrations utiles concernant NKSsur le site http://www.wolframscience.com/. Le livre peut être téléchargé gratuitement à partir de l’adresse http://www.wolframscience.com/nksonline/toc.html 3 : Précisons que Wolfram, bon mathématicien lui-même, ne propose pas de remplacer les mathématiques par des formules magiques. Il veut seulement les dépasser, là où l’état actuel de développement des techniques mathématiques ne permet pas d’aller suffisamment loin dans la modélisation. 4 : Stephen Wolfram emploie constamment le terme d’aléatoire (random), pour qualifier le degré de complexité supérieur produit par les AC. Mais rien ne nous oblige à penser qu’il s’agisse d’un aléatoire réel, si ce terme pouvait avoir un sens. Il s’agit seulement de constructions dont ni nos sens ni notre esprit ne peuvent suivre les procédures. Il n’y aurait d’aléatoire authentique que dans le monde quantique, et encore cette hypothèse est-elle actuellement fortement discutée. Voir le dossier Randomness, the Last Superstition, dans le NewScientist 2466 du 25 septembre 2004. 5 : Espérons que nos lecteurs se souviennent encore de Rahan, fils des âges farouches, créé par la bande dessinée de Lécureux et Chéret, responsable semble-t-il de nombreuses vocations scientifiques.
|
Retour au sommaire |