Annexe VII. Sciences et techniques de l’artificialisation
1. L’intelligence artificielle (IA)
L’intelligence artificielle (dite ici IA) a connu
des développements rapides, principalement
aux Etats-Unis, dans les années 1960/1970, en corrélation
avec l’apparition des premiers ordinateurs scientifiques. Ces développements
ont été ralentis pour diverses raisons, dont le manque de
capacité des composants électroniques de l’époque.
On a parlé d’une vieille IA, dont certains chercheurs (par
exemple les linguistes et traducteurs) se sont détournés,
déçus de ne pas voir leurs ambitions aussi pleinement satisfaites
qu’ils le voulaient. Au début des années 1990, les
progrès ont repris sur le mode exponentiel avec la généralisation
des ordinateurs de bureau, des réseaux de télécommunications
et des matériels incorporant de plus en plus de solutions IA liées
à des besoins spécifiques. Par exemple les systèmes
d’armes, les véhicules, les mobiles, les immeubles dits «
intelligents ». Nous désignerons cette IA, dont les ambitions
s’étaient beaucoup réduites et spécialisées
par rapport à celles de la « vieille IA » (GOFAI, Good
Old-fashion Artificial Intelligence), du nom d’IA faible. D’innombrables
sociétés savantes, laboratoires, entreprises, écrits
et études lui sont dorénavant consacrés.
On voit par ailleurs aujourd’hui se développer
une IA qui vise à reproduire le plus grand nombre possible des
fonctions et performances des cerveaux animaux et humains. Son ambition
est globale, intéressant toutes les activités des corps
biologiques : motrices, sensorielles, cérébrales. L’objectif
est d’obtenir des systèmes capables de se représenter
eux-mêmes dans leur environnement, d’élaborer des stratégies,
de communiquer par des langages, et plus généralement de
construire ce que Richard Dawkins avait appelé des « phénotypes
étendus » ou sociétés d’IA. Nous parlerons
ici d’IA forte pour désigner ces nouvelles générations
d’IA. Il n’est pas possible d’affirmer que leurs vastes
ambitions soient toutes atteintes, ni que les voies retenues pour y arriver
soient toujours les plus pertinentes. Mais le mouvement est désormais
bien lancé et semble se développer d’une façon
irrésistible.
En pratique, ces IA fortes sont associés à
des robots, à qui elles confèrent des propriétés
d’autonomie de plus en plus marquées. Elles sont associées
aussi à des systèmes de génération d’images
de synthèse, dits de réalité virtuelle, dont les
applications sont aujourd’hui multiples, les plus connues étant
les jeux électroniques en réseau. Mais nous préférons
présenter ces deux types de systèmes dans la section 3.2
suivante, en les distinguant de l’IA proprement dite, compte tenu
de l’empreinte de plus en plus lourde qu’ils imposeront aux
sociétés humaines. L’IA forte constituera si l’on
peut dire leur cerveau logiciel, mais ces systèmes seront dotés
de propriétés et capacités exigeant d’envisager
globalement leurs conséquences économiques, scientifiques
et politiques au regard de sociétés humaines qu’ils
vont transformer profondément.
Définir l’IA constitue une activité
très répandue dans la littérature scientifique. Sans
entrer dans les nuances, disons que l’IA vise à simuler sur
des ordinateurs et des réseaux électroniques, par l’intermédiaire
de programmes informatiques et de processus d’acquisition de connaissances
ne relevant pas de la programmation mais du raisonnement, un certain nombre
des comportements cognitifs, ou façons de penser, des cerveaux
animaux et humains. En cela, l’IA est conforme à la définition
de l’intelligence pour laquelle celle-ci consiste à raisonner.
Par ailleurs, rappelons-le, simuler ne veut pas
dire reproduire, car pour reproduire, il faut connaître en détail
le mécanisme de la nature. Or la composition et le fonctionnement
des cerveaux restent encore très difficiles à analyser et
interpréter. Simuler veut dire « essayer d’obtenir,
par n’importe quelle solution à notre disposition, un résultat
analogue à celui qui nous intéresse dans la nature ».
On ne copie pas a priori la nature, on cherche à obtenir un résultat
équivalent. Ainsi, pour voler, les hommes ont compris qu’ils
n’arriveraient à rien en copiant les oiseaux. Ils ont cherché
et trouvé leurs propres voies. Autrement dit, on pratique le processus
dit du « comme si ».
Mais ce faisant, une fois le résultat obtenu,
on découvre souvent que les voies et moyens artificiels permettant
de l’obtenir peuvent aider à comprendre le mécanisme
naturel. On sait ainsi que l’invention du sonar dans les années
1940 pour détecter les cibles par écholocalisation a permis
ensuite de comprendre comment de nombreux animaux, avec des techniques
biologiques très différentes, arrivaient à identifier
leurs proies (chauves-souris, dauphins, etc.).
C’est ce qui est en train de se passer avec l’IA.
L’IA a dès le début cherché à simuler,
plus ou moins bien, les résultats produits par l’activité
des cerveaux et des sens. Ainsi en matière de reconnaissance des
formes, des couleurs et des sons. Mais elle l’a fait par ses moyens
propres, qui sont ceux de la programmation sur système informatique.
Quand elle l’a pu, cependant, elle a utilisé les résultats
que lui apportaient les sciences du vivant, physiologie, psychologie,
pour mieux connaître les procédures retenues par le vivant.
Mais ces résultats n’étaient pas très explicites,
car ces sciences du vivant elles-mêmes, dans les années 1950/1960,
étaient encore très rudimentaires, fortement teintées
de psychologisme sinon de philosophie ou de métaphysique.
Depuis ces dates, les sciences du vivant ont découvert
tout le parti qu’elles pouvaient tirer de l’observation scientifique
détaillée des cellules, des organes et des fonctions, notamment
cérébrales, en faisant appel à des techniques physiques
telles que la spectrométrie de masse, ou, concernant les neurosciences,
l’électroencéphalographie ou l’imagerie par
résonance magnétique. Nous ne présenterons pas ces
diverses techniques dans cet essai mais nous invitons le lecteur à
se documenter à leur propos. Comme ces techniques font elles-mêmes
appel à l’informatique dans l’interprétation
de leurs résultats, une fructueuse collaboration s’est établie
entre les sciences du vivant (biologie et neurologie) et l’IA. Aujourd’hui,
sans se recouvrir exactement, l’IA et les neurosciences travaillent
la main dans la main. Cela n’empêche pas que d’autres
sciences cognitives, non réductibles à l’observation
des neurones, se développent par ailleurs. Mais là encore
l’IA devient pour elles un apport indispensable. C’est le
cas de la linguistique et de diverses sciences sociales et humaines. Quand
nous disons IA, nous voulons bien dire IA et pas simplement l’informatique.
L’informatique, science à elle toute seule, est partout indispensable,
mais seule l’IA lui apporte une valeur ajoutée dans les domaines
qui nous concernent. Cette valeur est spécifique à chacune
des grandes disciplines qui l’utilisent.
L’IA faible
L’IA dite faible est partout présente aujourd’hui.
Mais elle est quasiment invisible. Ainsi, lorsque l’on navigue sur
le Web en utilisant l’hypertexte, ou lorsque l’on procède
à une recherche en utilisant un moteur (ne citons pas de nom…),
on bénéficie d’un grand nombre de routines qui sont
devenues standard, mais qui avaient aux origines demandé des mois
et des mois de programmation à des équipes d’analystes
et de programmeurs.
Nous nous bornerons ici à présenter en
quelques mots les principaux outils qu’elle met à la disposition
des concepteurs de systèmes pour rendre ceux-ci « intelligents
» - le mot étant à prendre avec précaution.
Les systèmes experts
Un système expert est un logiciel capable de simuler
le comportement d'un expert humain effectuant une tâche précise,
dont il est seul à détenir le savoir-faire. L’objet
du système-expert est de mettre en mémoire des connaissances
théoriques ou factuelles difficiles à mémoriser autrement,
de façon à ce qu’elles ne disparaissent pas avec le
retrait de leur détenteur. Il est également de les globaliser
et de pouvoir les retraduire sous forme d’aides au diagnostic.
Au début des années 1990, on avait cru
voir dans les systèmes-experts un véritable sommet de l’IA
et plus généralement de la simulation du cerveau. Celui-ci
en effet mémorise à partir de la naissance du sujet d’innombrables
connaissances et règles de comportement, auxquelles il fait appel
en cas de besoin. Mettre en bibliothèque, mutualiser et faire évoluer
les connaissances de nombreux experts, voire d’une collectivité
tout entière, semblait le moyen de constituer un vaste cerveau
global, auprès duquel tous les autres systèmes traitant
des connaissances et des règles pourraient venir s’approvisionner.
Des systèmes-experts plus ou moins ambitieux ont été
réalisés.
L’avantage du système expert est qu’il
raisonne comme l’expert. Il ne nécessite donc pas des mois
de programmation. Il peut également être mis à jour
en permanence, de façon à tenir compte de l’évolution
rapide des connaissances. Cependant, pour des raisons complexes, aucun
ordinateur ou robot dont l’intelligence serait constituée
par un générateur de systèmes experts interagissant
avec des humains n’a encore eu de débouché commercial.
C’est pourtant là que le système expert trouverait
des applications importantes.
La représentation des connaissances
Si l'on veut qu'un logiciel soit capable de manipuler
des connaissances, il faut savoir les représenter symboliquement.
La représentation des connaissances désigne un ensemble
d'outils et de technologies destinés d'une part à représenter
et d'autre part à organiser le savoir humain pour l'utiliser et
le partager. Les connaissances ne se résument pas seulement à
des mots et des phrases. Des schémas, des dessins, des plans, des
images documentées sont utilisés en permanence. La représentation
des connaissances nécessite leur classement par taxonomies ou classifications
et par thésaurus.
Pour naviguer dans le monde des connaissances, des outils
formels permettant de formaliser des connaissances complexes sont nécessaires.
On parlera de graphes conceptuels ou de réseaux sémantiques.
L’IA a systématisé et rendu traitables par l’informatique
des modes de classements séculaires. Elle a standardisé
la représentation en faisant appel à des objets logiques
reliés par des propriétés, axiomes et règles.
Des langages informatiques spécifiques utilisables dans le cadre
du Web, notamment du Web récent dit sémantique qui s’intéresse
aux contenus plutôt qu’aux références externes,
ont été développés.
Le concept d’ontologie désigne l'ensemble
structuré des termes et concepts fondant le sens d'un champ d'informations,
notamment par le biais de métadonnées. L'ontologie constitue
un modèle de données représentatif d'un ensemble
de concepts dans un domaine, ainsi que les relations entre ces concepts.
Elle est employée pour raisonner à propos des objets du
domaine concerné. Tout ceci paraîtra abstrait, mais les raisonnements
les plus courants procèdent de cette façon sans s’en
rendre compte. L’IA, dans ce domaine comme dans celui voisin de
la logique, a eu pour premier objectif de mettre en règles précises,
mémorisables et utilisables par des robots, les processus ancestraux
de l’intelligence animale et humaine.
La gestion des connaissances ou knowledge management
Cette technique complète et rend utilisable la
représentation des connaissances. Elle rassemble les outils permettant
d'identifier, d'analyser, d’organiser, de mémoriser, de partager
et de restituer à la demande l’ensemble des connaissances
produites et accumulées par une organisation sociale.
Mais là encore, le besoin immémorial avait
fait apparaître dans les sociétés traditionnelles
des méthodes empiriques de gestion des connaissances qui demeurent
encore très actives dans de nombreux domaines. Les rituels religieux
ou sociaux en représentent une forme.
Le traitement automatique du langage naturel
Le traitement automatique du langage naturel peut être
rapproché des techniques précédentes. Il en constitue
le complément indispensable puisque les données et les connaissances
proviennent de multiples sources et langages, qu’il sera préférable
d’harmoniser, notamment en les traduisant dans un langage unique.
Qu'il s'agisse de traduire un texte dans une autre langue ou de le résumer,
le problème crucial à résoudre est celui de sa compréhension.
On pourra dire qu'un logiciel comprend un texte lorsqu'il peut le représenter
sous une forme indépendante de la langue dans laquelle il est écrit.
Les traducteurs automatiques sont apparus d’abord
dans des domaines spécialisés où ils peuvent être
associés à des contenus et à des lexiques adaptés
au domaine. Les traducteurs généralistes se multiplient
également aujourd’hui. Ils répondent à un véritable
besoin politique, notamment dans les organisations internationales refusant
l’omniprésence de l’anglais. Mais la présence
d’un traducteur humain reste encore nécessaire.
Les langages verbaux ne sont pas les seuls qu’utilisent
les humains. Comme beaucoup d’animaux, ils utilisent aussi d’innombrables
symboles, gestes ou images. Leur traduction automatique, notamment vers
des langages verbaux et des bases de connaissances, sera de plus en plus
nécessaire. Cela fera partie de la constitution d’une vaste
culture globale transcendant individus et groupes spécifiques.
Le calcul formel
On peut mentionner dans cette rubrique le traitement
informatique du langage mathématique. C’est le calcul formel
qui est le plus concerné. Celui-ci, au contraire du calcul numérique,
traite des expressions symboliques. Par exemple, calculer la valeur d'une
fonction réelle en un point est du calcul numérique alors
que calculer la dérivée d'une fonction numérique
est du calcul formel. De nombreux logiciels très puissants sont
commercialisés pour exécuter tous les calculs formels et
bien d'autres nécessaires aux activités scientifiques et
techniques.
La simulation du raisonnement humain
Les données et les connaissances servent aux humains
à raisonner. Ils le font de façon plus ou moins rigoureuse,
souvent inconsciemment. Ils sont capables de raisonner sur des systèmes
incomplets, incertains et même contradictoires. Pour l’IA
il est devenu indispensable de simuler le raisonnement humain, avec ses
forces et ses faiblesses. De plus en plus les techniques de raisonnement
artificiel seront capables de s’auto-optimiser. Des logiques dédiées
(logiques modales, temporelles, floues, non monotones, etc.), formalisent
les raisonnements humains, lorsqu’ils échappent à
la logique courante intéressant les rationalités explicites,
empiriques ou scientifiques.
La résolution de problèmes
Il s’agit de représenter, analyser et résoudre
des problèmes concrets. Pour les premiers concepteurs de l’IA,
celle-ci devait être une machine spécialisée (généraliste)
dans la résolution de problèmes. Chaque être vivant
le fait en permanence, les humains généralement sans y penser.
Il peut s’agir simplement de marcher dans la rue afin de se rendre
quelque part. Autrement dit un problème est une tâche qui
exige l’exploration d’un certain nombre de réponses
possibles avant de choisir la bonne, ou la meilleure. A un plus haut niveau,
il faut résoudre les problèmes difficiles, ceux pour lesquels
aucune solution n’apparaît à première vue. Le
cas se retrouve constamment dans la recherche, l’industrie et plus
généralement la vie sociale. Pour l’IA, la résolution
de problèmes constitue donc un champ d’étude fondamental.
Les premiers concepteurs de l’IA espéraient d’ailleurs
trouver une méthode capable de résoudre n’importe
quel problème, quel qu’il soit. C’était l’ambition
du « general problem solving ». Ils y ont renoncé.
Il a fallu segmenter les approches.
La difficulté, pour tous les problèmes
intéressants (voire les plus simples en ce qui concerne les robots),
est que « l’espace de recherche de solution » est très
vaste. Il faut le réduire en trouvant des « heuristiques
» ou méthodes d’invention évitant de chercher
dans des directions inutiles. Il faut aussi faire appel à ce que
l’on sait de problèmes similaires pour mieux modéliser
leur représentation dans le système.
En dehors de la recherche et de l’industrie, les
jeux offrent un vaste terrain d’application à la résolution
de problèmes. La plupart des jeux ont fait l’objet d’applications
faisant appel à l’IA. Rappelons cependant à cet égard
qu’il faut distinguer entre des solutions faisant vraiment appel
à des heuristiques évoluées et celles faisant simplement
appel à ce que l’on nomme la force informatique brute. Vaincre
un joueur d’échecs humain en mettant en face de lui un super-ordinateur
géant ne présente guère d’intérêt,
autrement que publicitaire. Il existe par contre des IA permettant de
jouer aux échecs selon des règles bien plus « intelligentes
» et donc plus économes de moyens.
Les humains comme les animaux utilisent bien d'autres
méthodes que celles faisant appel à des formulations logico-mathématiques.
La plupart sont même en fait incapables de raisonner mathématiquement,
que ce soit inconsciemment ou consciemment. Leur moteur de raisonnement
est basé sur l’imagerie sensorielle. De plus, ils raisonnent
souvent par analogies, en comparant le présent au passé.
Ils sont guidés enfin par des émotions qui les guident dans
le choix des buts et des heuristiques pour les atteindre.
Le philosophe, logicien et informaticien célèbre
Douglas Hofstadter a développé plusieurs programmes capables
de raisonner par analogies. C’est le cas du programme Copycat. Il
présente la caractéristique de s’inventer des rôles,
autrement dit de se modifier lui-même, au fur et à mesure
des questions qui lui sont posées. Il s’agit d’un bon
précurseur de l’IA forte que nous allons examiner ci-après.
Un autre programme, aussi surprenant, est Phaeaco, conçu
par Harry Fondalis et Douglas Hofstadter en 2005/2006. Il résout
notamment les problèmes d’analogies visuelles dits aussi
problèmes de Bongard. On conçoit que pour survivre dans
la nature, les cerveaux des animaux ont besoin de programmes de cette
sorte. Pour rechercher les caractéristiques communes des images,
Phaeaco est guidé par les « idées » qu’il
peut avoir à un moment donné relativement aux concepts possibles.
Pour que ces programmes deviennent vraiment intelligents,
selon leurs concepteurs, il leur faudrait acquérir la capacité
d’introspection, afin de comprendre les raisons de leur choix. Cela
a été l’objet du programme « Metacat »
dont les résultats ne sont pas évidents à ce jour.
Il leur manque aussi la notion de « but », fondamentale dans
le cadre de l’IA forte.
Les différentes reconnaissances de forme
L’IA, dès ses débuts, s’est
attachée à fournir des outils permettant d’identifier
les objets avec lesquels les animaux et les humains ont constamment affaire,
et que leur cerveau ne rencontre apparemment aucune difficulté
à traiter sans qu’ils en aient la moindre conscience. En
réalité, comme l’ont montré les études
neurologiques entreprises depuis Broca, c’est presque le cerveau
entier qui est mobilisé pour construire des représentations
utilisables du monde à partir des informations électromagnétiques
ou sonores perçues par les sens. Des centaines d’aires différentes
y contribuent. Beaucoup de processus de détail sont encore mal
explorés.
Dès les origines de l’IA, on a voulu l’utiliser
pour équiper des machines dotées de dispositifs d’émission
et de réception de signaux divers. On voulait les rendre capables
de performances voisines de celles des organismes vivants. Mais les difficultés
ont été considérables. Non seulement il fallait trouver
des méthodes adaptées au traitement de signaux différents,
mais il fallait résoudre une bonne partie des problèmes
logiques ou analogiques signalés ci-dessus. Ainsi, dans la reconnaissance
de la parole, l’idéal serait un logiciel capable de reconnaître
les paroles d'un locuteur quelconque. Mais ceci reste difficile, essentiellement
parce que la compréhension d'un mot et à plus forte raison
d'une phrase requiert beaucoup d'informations extra-langagières
(le contexte, la connaissance du monde dans lequel vit le sujet, celle
de ses buts, etc.).
La reconnaissance de l'écriture s’est révélée
plus facile, sauf en ce qui concerne celle de l’écriture
manuscrite où les variations dues à chaque « écrivain
» jettent des ambiguïtés considérables sur les
concepts et les phrases utilisées.
La reconnaissance des visages, sur photo puis d’après
le modèle vivant, est de plus en plus requise par les systèmes
sécuritaires et plus généralement par les robots
qui doivent distinguer visuellement leurs interlocuteurs. Elle a longtemps
été considérée comme quasi impossible. On
sait cependant que le cerveau des nourrissons sait le faire très
facilement. Aujourd’hui cependant des logiciels très performants
sont apparus dans les laboratoires et même dans les produits du
commerce.
Les actions en sortie, par exemple la synthèse
de la parole, présentent moins de difficultés, car en ce
cas le système « sait » déjà ce qu’il
veut signifier. C’est sur son interlocuteur humain que repose la
tâche de l’interprétation. Cependant l’IA, là
encore, s’efforce de trouver les modes d’expression les moins
ambigus et les plus économiques au regard des ressources et du
temps.
L’apprentissage
On désigne par ce terme banal la façon
dont un système d’IA conjuguera les techniques évoquées
ci-dessus. Il devra, malgré les différences d’approche
de ces dernières, se doter de représentations du monde et
de lui-même conformes à ses buts (ou aux buts des humains
qui l’utilisent). L’apprentissage, en IA, se fait principalement
à l’usage. Un système d’IA ne cherche pas à
se doter de toutes les informations que les techniques qu’il utilise
lui permettraient d’acquérir. Bien plus, comme le cerveau,
il doit impérativement désapprendre ce qu’il avait
appris auparavant et qui cesse de lui servir.
Outils de l’IA
Ces différentes tâches énumérées
ci-dessus font appel à de nombreux langages de programmation et
outils de génie logiciels développés au fil des temps
pour les besoins de l’IA. Nous nous bornerons à signaler
trois d'entre eux, que nous ne décrirons pas ici, renvoyant le
lecteur aux articles spécialisés. Le premier, très
utilisé dès l’origine, fait appel aux réseaux
de neurones formels. Les neurones formels simulent le fonctionnement des
neurones biologiques, de façon extrêmement simplifiée.
Leur emploi se heurte vite à des limites, dès qu’il
s’agit de traiter rapidement beaucoup d’informations.
Une autre méthode, également très
utilisée, simule la compétition darwinienne entre les êtres
vivants. Mais cette compétition s’exerce à l’égard
des programmes destinés à produire les meilleures solutions
pour répondre à un problème donné. Il s’agit
des algorithmes génétiques de la programmation évolutionnaire
(ou evolving computing). Le but est d'obtenir une solution approchée
à un problème d’optimisation, en un temps correct,
lorsque l’on ne connaît pas de méthode exacte pour
le résoudre dans un délai raisonnable. Un générateur
produit une grande quantité de programmes représentant tous
des solutions différentes (les pères). On les met en compétition,
on retient les meilleurs (les enfants) et on recommence l’opération
sur cette seconde génération, puis aussi longtemps que nécessaire.
On se rapproche ainsi par “bonds” successifs d'une solution
aussi bonne que possible, en un très court temps. La puissance
de cette méthode est considérable. Elle permet d’économiser
des milliers d’heures de programmes écrits à la main.
Plus les ordinateurs utilisés pour réaliser les sélections
nécessaires sont puissants, plus les délais sont courts.
La méthode pourrait être employée par un système
d’IA sans intervention d’humains, ouvrant ainsi la voie à
l’auto-développement et à l’auto-adaptation
aux contraintes externes.
Nous citerons enfin dans cette rubrique le concept de
système massivement multi-agents (SMA). Il ne s’agit pas
à proprement parler d’une méthode de production de
programmes, mais d’une façon de modéliser des foules
composées d’unités ou agents susceptibles d’activités
autonomes (proactivité). Objets de longue date de recherches en
IA distribuée, des SMA constitués de milliers de petits
programmes disposant d’une certaine autonomie au sein d’une
fonction déterminée permettent de réaliser des ensembles
complexes évolutionnaires à moindre frais en termes de programmation.
Le SMA évolue comme le fait une foule ou un organisme vivant. Il
s’agit donc d’une méthode particulièrement intéressante
pour l’IA forte, que nous allons maintenant présenter.
L’IA forte
L’IA forte, dans son acception la plus ambitieuse,
vise à simuler les comportements d’un animal ou d’un
humain capable, non seulement d’intelligence, mais de conscience.
On parle aussi de cognition artificielle. L'IA forte ne se prononcera
pas sur les caractères intrinsèques de l’intelligence
ou de la conscience chez l’homme. Ceci lui évitera de s’engager
dans les discussions métaphysiques que suscite inévitablement
la question de la conscience humaine, sa nature matérielle ou spirituelle,
ses capacités d’appréhender le monde.
L’IA forte se bornera à proposer un certain
nombre de critères par lesquels on pourra comparer un automate
doté d’une conscience artificielle, c’est-à-dire
construite, et un humain ou un animal dotés de conscience. Il s’agira
d’une nouvelle version du test dit de Turing. On sait que pour celui-ci,
si un ordinateur et un humain, cachés par un rideau, répondent
de façon identique à un enquêteur, il n’y aura
pas de raison de refuser au premier l’équivalent de la conscience
reconnue au second. Là encore, on dira que « tout se passe
comme si » l’ordinateur était conscient.
Ceci posé, il est évident que l’IA
forte, même associée à la robotique, est encore loin
de permettre la réalisation, voire seulement la conception, d’un
automate doté d’une conscience artificielle. Certains chercheurs
évoquent des obstacles infranchissables dans cette voie. Mais peut-on
leur faire confiance ? De toute façon, les avancées
de la science, en ce domaine, sont rapides.
En principe, une des premières tâches des
concepteurs de l’IA forte (que nous appellerons dorénavant
l’IA, sans adjectif) devrait être d’identifier les différents
processus caractérisant le fonctionnement du cerveau biologique
et de mettre en place des assemblées d’agents informatiques
capables d’accomplir des activités fonctionnellement voisines
de ces processus(1).
Les cerveaux, selon les psychologues et neurologues,
fonctionnent sur de multiples registres, à partir de l’activation
de multiples sites neuronaux chargés de tâches de détail.
En simplifiant beaucoup (il ne s’agit ici que de généralités
illustratives, à ne pas prendre au pied de la lettre), on dira
que le cerveau :
- reçoit, traite et conjugue les informations
reçues des cinq sens ainsi que les informations dites proprioceptives
concernant la position du corps dans l’espace.
- éprouve des sensations de plaisir et de douleur
qui ont pour principale fonction de renforcer l’attrait des activités
utiles à la vie et de provoquer l’évitement de celles
qui ne le sont pas.
- construit des représentations internes de son
environnement.
- inversement construit des représentations internes
d’une situation désirée ou imaginée
- se situe lui-même sous forme d’auto-représentation
dans l’un et l’autre de ces théâtres.
- dispose de deux modes de fonctionnement, inconscient
et conscient. Les fonctions inconscientes sont pour l’essentiel
motivationnelles, poussant à agir vers des buts jugés désirables,
soit par déterminisme génétique, soit par suite des
expériences réussies vécues par le sujet. Mais les
fonctions inconscientes sont aussi en partie inhibitrices. Une «
censure » éloigne l’attention des activités
ou pensées pouvant avoir des conséquences dangereuses pour
le sujet. Là encore, ces inhibitions découlent soit de déterminismes
génétiques, soit d’expériences négatives
vécues et mémorisées par le sujet. On sait que les
animaux sont constamment bloqués dans leurs comportements exploratoires
par diverses inhibitions très puissantes.
- dispose d’aptitudes exploratoires, sur le mode
essais et erreurs, qui sont à la base des comportements de recherche
ou heuristiques et de la reconfiguration permanente des contenus de mémoire.
- dispose d’une capacité langagière
innée, qui se spécifie au cours de l’apprentissage.
Il en est de même de beaucoup des fonctions intéressant l’esprit.
A partir de compétences innées, celles-ci se construisent
par apprentissage social en interaction avec le milieu.
- possède une mémoire à court terme
et une mémoire à long terme, dont les capacités et
les rôles sont différents.
- est sensible, soit globalement, soit partiellement,
à des décharges de médiateurs chimiques suscitées
par les émotions, qui modifient passagèrement ou durablement
ses états.
- est capable de bâtir avec ses semblables des
constructions sociales très diverses, reposant très largement
sur des concepts, images et autres informations partagées. Celles-ci,
en interaction avec l’environnement, constituent des éconiches
culturelles ou « phénotypes étendus », selon
le terme proposé par Richard Dawkins.
- au sein de ces éconiches, est capable d’entrer
en compétition darwinienne plus ou moins vive avec ses semblables.
Ces compétitions sont à la base de l’évolution
des cultures et, sans doute aussi, par rétroaction, de l’évolution
des génomes propres à l’espèce.
Les cerveaux, comme d’ailleurs les individus auxquels
ils appartiennent, et comme en dernier ressort leurs productions intellectuelles,
sont uniques, à partir d’un modèle d’ensemble
fixé par la génétique. Autrement dit, aucun ne ressemble
complètement à un autre. Leur histoire biologique et événementielle
les façonne chaque fois différemment. Ces différences
s’expriment ou ne s’expriment pas selon les circonstances.
Néanmoins on peut parler d’un processus dit d’individuation
par lequel un individu spécifique se construit tout au long de
la vie. Ce processus est moins marqué mais présent également
chez les animaux.
A partir du catalogue ci-dessus, on peut concevoir que
le concepteur de l’IA simule un certain nombre de fonctions susceptibles
de provoquer chez un automate la naissance de comportements analogues
à ceux du cerveau animal ou humain. Il pourra aussi décider
de ne pas retenir certaines fonctions héritées de l’évolution
humaine et susceptible de représenter un handicap pour l’entité
artificielle considérée. La simulation ne sera évidemment
pas obligée de retrouver les sensations subjectives, en fait incommunicables,
ressenties par un être humain. Ainsi la douleur ou le plaisir, indispensables
pour renforcer ou éviter certains stimuli chez le vivant, seront
programmés sous forme d’instructions informatiques.
Ajoutons que la simulation ne se fera pas au niveau de
l’entité globale, mais au niveau de chacun des sous-niveaux
ou agents responsables de chacune des grandes tâches énumérées
ci-dessus. Cette spécialisation correspondra à ce qui se
produit réellement dans le cerveau biologique, au moins dans les
phases de traitement antérieures à la prise de décision
globale réalisées dans le cortex associatif. On commencera
ainsi par réaliser les modules correspondant à la reconnaissance
des formes. Ils seront mis ensuite en interaction avec les autres modules,
chacun d’eux, dans le cours de la vie de l’entité,
pouvant réagir et modifier les autres dans le cadre d’une
individuation de plus en plus complexe.
Ce sera en fait l’interaction des divers modules
fonctionnels entre eux et avec l’environnement qui permettra de
compléter les fonctions de détail et de les rendre opérants
au niveau de l’organisme final. On retrouvera ainsi la méthode
suivie par les constructeurs des robots évolutionnaires modernes
: conjuguer l’approche top-down définie par les spécifications
initiales et l’approche bottom-up résultant de l’interaction
des différents composants dans le cadre d’un environnement
non défini à l’avance. Il en résulte que le
produit final ne pourra pas et ne devra pas être totalement conforme
aux spécifications de départ. L’objectif ne sera pas
de créer des clones, mais des sujets susceptibles d’interagir
à partir de leurs différences, mécanisme indispensable
permettant de générer de la diversité (dit aussi
en anglais, sous forme de clin d’œil aux religions, GOD ou
Generator of Diversity) dans le processus de création de lignées
de robots. Sans cette diversité, correspondant en biologie aux
produits des mutations génétiques, il n’y aurait pas
de compétition et par conséquent pas d’évolution
adaptative.
Par ailleurs, plus immédiatement, les processus
bottom-up faisant émerger de la complexité à partir
de l’interaction d’éléments simples éviteront
aux réalisateurs de nombreuses heures de travail. Une partie des
instructions nécessaires seront générées par
le système lui-même, du fait de l’interaction de ses
divers composants et de ses interactions avec son milieu, notamment l’humain.
On sait qu’en robotique, Rodney Brooks a bâti une véritable
success story en s’affranchissant ainsi des contraintes de la programmation
top-down dans lesquelles s’était enfermés, par exemple,
les concepteurs du premier chien robot Aibo de Sony.
Ceci, on le voit, nous conduit irrésistiblement
à considérer que la construction d’une IA forte supposera
l’existence d’un corps robotique physique. On peut cependant,
comme nous l’avons dit, commencer la réalisation d’une
IA forte en travaillant sur la base d’un corps simulé au
sein d’un système informatique ou d’un réseau.
Ceci posé, revenons à ce que devrait être
- ou pourrait être - une IA visant à simuler
la conscience dans un organisme artificiel. On se limitera, sur ce sujet
difficile, à des propositions très simplifiées.
Au départ, l’IA se construira essentiellement
par auto-apprentissage à partir d’une base simulée.
Il faudra donc disposer d’un programme générateur.
Ce programme devra être capable de générer les autres
formes d’IA. Selon Serge Boisse, précité, on pourra
créer un certain nombre de “boîtes” virtuelles
ou programmatiques, correspondant aux différents niveaux du fonctionnement
de l’esprit : modalités sensorielles, concepts, pensées,
délibération, buts et conscience globale. D’autres
boîtes seront chargées de la régulation de l’ensemble.
Chacune des boîtes possédera des entrées, des sorties
et des fonctions bien définies. Il faudra les concevoir comme des
« résolveurs de problèmes », le problème
général consistant à calculer les sorties en fonction
des entrées.
On pourra les décomposer à leur tour en
sous-systèmes capables de traiter des problèmes particuliers.
Chacun de ces sous-systèmes sera à son tour décomposé,
ceci aussi loin que nécessaire. On arrivera aux systèmes
du niveau le plus bas, correspondant à des agents informatiques
dans un système massivement multi-agents. Chacun de ces sous-sous-systèmes
pourra utiliser des heuristiques propres pour résoudre ses problèmes,
en choisissant librement diverses stratégies : ne rien faire, se
modifier aléatoirement, imiter un autre, déléguer
la tâche à un autre, répéter, faire appel à
des données en mémoire, gérer et tester les solutions,
etc.
Cette dernière fonction, gérer et tester
des solutions, paraît être, selon les travaux les plus récents
des neuroscientifiques, la façon dont procèdent les différentes
cellules fonctionnelles ou agents du cerveau. Ainsi, confronté
à une entrée d’informations provenant de la rétine,
le système visuel recherche en mémoire une scène
(en 3D) correspondant grossièrement à ce qui est perçu.
Il en fait une « hypothèse » qu’il confronte
à la scène vue. Après différentes améliorations
permettant d’améliorer à la fois la précision
de la réception et celle de la représentation, il retient
pour s’en servir la scène offrant la plus grande probabilité
d’être aussi proche que possible de la scène visualisée
(l’expérience) et de la scène antérieurement
mémorisée (l’hypothèse interprétative).
Il s’agit d’un aspect du fonctionnement bayésien
qui pourrait être le mode de fonctionnement standard du cerveau
biologique. Les processus bayésiens peuvent facilement être
utilisés par l’IA. Ils sont aujourd’hui largement utilisés,
comme le montrent les travaux de la mathématicienne informaticienne
américaine Daphne Koller(2) .
La programmation détaillée et complète
de tout ceci serait une tâche impossible. Mais avec un générateur,
lui-même travaillant éventuellement en interaction avec d’autres
générateurs appartenant à d’autres systèmes
en compétition darwinienne avec le premier, il ne sera pas nécessaire
d’implémenter toutes les fonctions. Le générateur
codera de lui-même les fonctions qui lui manquent. Elles pourraient
être sélectionnées en fonction de leur compétitivité
darwinienne, par la technique des algorithmes génétiques.
A partir de là, l’évolution devrait
s’accélérer. Après plusieurs tours d’auto-perfectionnement,
la jeune IA pourrait atteindre assez vite, selon Eliezer Yudkowski(3)
une compréhension du monde analogue à celle d’un enfant
de 6 ans. Quelques mois plus tard elle serait celle d’un adulte
et quelques heures plus tard, elle serait devenue la véritable
première super-intelligence. C’est alors qu’il faudra
se poser la question de sa contrôlabilité éventuelle
par les humains.
La solution présentée ici n’est qu’une
des voies possibles. D’autres sont en cours d’étude
et même de développement. L’IA y est associée
ou non avec la robotique, mais de toutes façons un considérable
travail de programmation et d’auto-programmation apparaît
nécessaire pour réaliser des machines capables de générer
de la pensée voire l’équivalent de pensées
conscientes. Citons à cet égard le projet présenté
par le professeur Alain Cardon, avec lequel nous avons collaboré
à diverses occasions. Il a déjà écrit un nombre
considérable d’instructions. Malheureusement, il n’a
pas encore pu obtenir les quelques crédits qui lui seraient nécessaires
pour développer son programme(4)
.
Les sceptiques objecteront qu’aucune de ces idées,
à part peut-être celles de Jacques Pitrat précité
n’a encore abouti en France à des produits vraiment indiscutables.
Cela ne doit pas nous empêcher de les prendre au sérieux.
Il est à peu près certain qu’ailleurs dans le monde,
notamment aux Etats-Unis, dans les laboratoires travaillant pour le défense
et financés par la DARPA (Defense Advanced Research Projects Agency),
des projets beaucoup plus avancés sont en cours d’aboutissement.
Mais ils restent couverts par le secret-défense. Il est dommage
que dans notre pays, comme plus généralement en Europe,
les pouvoirs publics, de qui dépendraient inévitablement
les décisions, ne jugent pas utile de dégager les quelques
millions d’euros nécessaires pour obtenir une « super-IA
» représentant un atout de compétition considérable.
2. La robotique
La prochaine décennie verra, sauf catastrophes
malheureusement de plus en plus prévisibles, se multiplier les
produits et services s’appuyant sur les sciences et technologies
de la robotique. L’explosion de ces nouveaux outils et des comportements
induits justifiera les arguments de ceux pour qui l’humain tel que
connu traditionnellement serait en train de laisser place à une
ou plusieurs civilisations technologiques dont les contours, bien qu’encore
difficilement discernables, provoqueront plus de peurs que d’enthousiasmes.
Sans nous prononcer ici sur la question délicate
de savoir où dans ces perspectives s’arrêterait l’humain
et où commencerait un éventuel posthumain, nous pouvons
donner quelques précisions relatives aux nouveaux domaines ouverts
par l’évolution des principales de ces sciences et technologies,
ainsi qu’à certaines de leurs conséquences prévisibles.
Il convient de rappeler d’emblée que les techniques évoquées
ici seront (malheureusement) dédiées dans leur grande majorité
à des applications militaires et de police, du fait que leur financement
sera pour l’essentiel pris en charge par des agences de défense
et de sécurité. Ceci signifie que le monde de demain sera
défini par les idées que s’en font les militaires.
La généralisation des produits en découlant pourrait
provoquer soit des conflits généralisés soit plus
immédiatement des sociétés hyper-contrôlées.
Nous ne disons pas que les recherches militaires sont
inutiles, surtout si elles sont entreprises par des pays qui veulent échapper
à la domination des grands empires, Etats-Unis et Chine, notamment,
ou à celle d’éventuels Etats dits « terroristes
». Mais il vaudrait mieux se placer dans une perspective plus optimiste,
celle qualifiée par certains prospectivistes de Singularité
où la multiplication de nouvelles ressources permettrait de répondre
aux principales exigences de survie des humains et des écosystèmes.
Dans ce cas, les recherches civiles seraient indispensables. Nous envisageons
là non seulement des recherches conduites par des entreprises privées
qui en conserveraient le monopole, mais des recherches que l’on
pourrait continuer à dire publiques et mieux encore « citoyennes
», bien que le terme soit malheureusement de plus en plus vidé
de son sens.
Il paraît évident que, pour ne pas ajouter
aux inégalités qui séparent déjà les
humains entre ceux qui détiennent des savoirs scientifiques et
les autres, les solutions de développement reposant sur les principes
de l’Open Source ou Systèmes ouverts du Web devraient se
répandre sur le mode darwinien, en exploitant des créneaux
d’opportunités ouverts par l’évolution. Leurs
promoteurs s’inspireront notamment des principes mis en œuvre
pour la réalisation du système d’exploitation Linux
et des programmes compatibles : à partir de spécifications
ouvertes, librement publiées, non brevetées, des collectivités
d’utilisateurs-développeurs en réseau produisent en
permanence de nouvelles versions, en s’engageant à ne pas
en faire des systèmes fermés mais au contraire à
les mettre à la disposition de tous. Des procédures dites
« éthiques » visant notamment à éviter
les usages malveillants ou criminels sont cependant nécessaires.
Le mouvement Open Source s’essouffle un peu aujourd’hui
parce qu’il est resté trop limité aux programmes d’ordinateurs.
L’arrivée de l’IA forte et de la robotique autonome
devrait lui donner un nouvel élan. Rappelons que l’acquisition
d’un robot de travail, dit aussi plate-forme robotique, sur lequel
de très nombreux programmes peuvent être implémentés,
est désormais à la portée de tout citoyen capable
d’acquérir une automobile. Il serait donc tout à fait
possible de construire des robots très sophistiqués par
l’association de centaines de développeurs à temps
très partiel, acceptant les contraintes du travail coopératif
en réseau.
Généralités sur la robotique
Un robot type comprend, comme tout organisme biologique,
un corps et un système nerveux lui-même doté d’un
cerveau.
Le corps
Le corps du robot est séparé du monde extérieur
par une enveloppe ou frontière. Il interagit avec ce monde grâce
à des capteurs sensoriels et à des organes d’actuateurs
ou effecteurs permettant le déplacement, la saisie des objets extérieurs,
l’émission de messages pouvant servir à la communication.
En principe, le système décrit ici peut
être adapté à n’importe quelle plate-forme robotique
moderne répondant des besoins d’application très divers.
Ces plates-formes comportent toutes un ou plusieurs « corps »
électro-mécaniques dotés de capteurs et d’effecteurs.
Les capteurs, qui peuvent être très sophistiqués,
correspondent aux organes des sens chez l’organisme vivant. Les
actuateurs correspondent aux membres, bras, mains, jambes, de l’organisme
vivant. Selon les usages recherchés, l’ensemble pourra prendre
la forme d’un véhicule terrestre, aérien ou marin.
Il pourra aussi s’agir de robots à forme humaine ou animale.
Mais le robot pourra être entièrement virtuel, c’est-à-dire
s’incarner dans des jeux d’instructions implantées
dans des réseaux d’information. Lorsque le robot dispose
de plusieurs corps répartis dans l’espace, ceux-ci peuvent
ou non travailler de façon coordonnée, comme certains animaux
opérant en meute.
Les capteurs et effecteurs du robot ne sont pas limités
comme ceux des organismes biologiques. Ils peuvent bénéficier
de tous les progrès technologiques marquant par ailleurs l’instrumentation
scientifique. Ainsi les robots peuvent « voir » le monde bien
mieux que nous. Ils reçoivent les émissions lumineuses ou
radio dans les bandes de fréquences que les organismes vivants
n’ont jamais utilisées parce que l’évolution
darwinienne ne les avait pas orientés en ce sens. Les robots embarqués
sur des satellites peuvent également, on le sait, s’affranchir
des limitations imposées par l’atmosphère et par les
radiations terrestres. Un robot peut par ailleurs être connecté
au Web en permanence. Ainsi, simplement en explorant quasi en temps réel
les moteurs de recherche à base de textes et d’images, il
pourra se comporter en interlocuteur redoutable dans les débats
académiques ou les conversations de salon. Les ignorants objecteront
qu’il ne pourra pas pour autant émettre d’idées
originales, mais les ignorants, comme nous le verrons, se tromperont lourdement
en ce domaine.
Le corps du robot, par ailleurs, n’est pas limité
comme celui des organismes vivants par des barrières anatomiques
infranchissables. Il peut prendre toutes les formes imaginables, celles
du moins que la technique du moment lui permettent d’explorer. Ce
polymorphisme fait déjà et fera de plus en plus que les
robots seront présents partout et dans toutes les applications
civiles et militaires. Inutile de détailler ici ce point. Disons
seulement que des microrobots de la taille d’un insecte, voire d’une
taille inférieure, existent déjà. Ces robots pourront
se regrouper, comme les insectes sociaux, en essaims qui constitueront
de nouveaux systèmes robotiques de grande taille. Très différents,
au moins « anatomiquement », les robots composés d’instructions
ou agents informatiques, déployés sur les réseaux
numériques et donc invisibles aux regards, déterminent en
grande partie ce que l’on peut appeler la police et la régulation
du Web, voulue par certains pouvoirs ou se mettant en place spontanément.
Les robots les plus impressionnants sont les robots humanoïdes,
avec lesquels se multiplieront les communications reposant sur l’empathie.
Les robots de compagnie, très nombreux au Japon pour le soin aux
personnes, exploitent ces capacités. Les robots combattants surarmés
développés par les agences de défense, telles la
Darpa aux Etats-Unis, présentent un aspect bien moins sympathique.
Il en est de même des véhicules militaires entièrement
robotisés, sur le modèle des drones aériens et terrestres
sans pilote.
Dans un autre registre, on connaît les robots animaloïdes,
capables d’interagir efficacement avec les animaux et avec les humains.
Il est possible également de considérer les grandes machines,
comme l’actuelle station spatiale internationale IST, bourrée
de microrobots, comme de vastes robots à elles seules. On sait
que récemment l’arrimage à l’IST du cargo ravitailleur
européen Automatic Transfer Vehicle ATV s’est fait entièrement
sous robotique, préfigurant les prochaines explorations robotisées
de la Lune et de Mars. Enfin, les usines du futur, elles aussi entièrement
robotisées, mais sur le modèle de la gestion intelligente
des ressources, remplaceront rapidement, dans certains pays, les chaînes
de production conservant quelques travailleurs ou contremaîtres
humains.
Le cerveau
Le cerveau artificiel du robot et plus généralement
son système nerveux font partie de son corps, évidemment,
mais vu leurs rôles spécifiques dans la maîtrise coordonnée
du système et dans la prise de conscience qu’il aura de lui-même,
il convient de les traiter à part. Le corps robotique, quelle que
soit sa sophistication technologique, tire ses qualités de la puissance
de son unité centrale de commande, organe correspondant au cerveau
des vertébrés. Le cerveau artificiel implémente des
IA plus ou moins performantes, du modèle de celles décrites
ci-dessus. L’unité centrale est généralement
constituée d’un ou plusieurs ordinateurs, les plus gros ne
dépassant pas la taille d’un PC du commerce actuel. Ils seront
de plus en plus répartis et travaillant en réseau à
l’intérieur du corps, unique ou lui-même réparti,
du robot. La miniaturisation et l’augmentation de puissance continuelle
des composants électroniques laissent entrevoir le temps où
des robots peu coûteux seront dotés d’autant de neurones
artificiels que les cerveaux animaux sont dotés de neurones biologiques.
Mais ils ne seront pas intelligents pour autant, si des IA performantes
ne se développent pas sur ces réseaux physiques. Ces IA
ne seront évidemment pas, sauf exceptions, constituées de
programmes écrits à l’avance. Elles seront acquises
par le robot (ou plus précisément par des robots travaillant
en groupe) sur le mode de l’auto-génération, comme
nous le précisons ci-dessous.
L’acquisition des compétences cognitives
Il s’agit d’une précision importante,
que beaucoup de ceux qui discutent de la robotique n’ont pas encore
assimilée. Il faut absolument distinguer entre les robots entièrement
pré-programmés et donc asservis à leurs concepteurs
humains, et les robots dits autonomes ou évolutionnaires, capables
de se comporter et se complexifier en partie par auto-programmation, selon
les processus d’auto-génération caractérisant
l’IA forte discutée précédemment. N’en
déplaise aux craintifs, les robots entièrement programmés
et donc asservis seront de moins en moins nombreux, car leur coût
est devenu prohibitif, aussi bien en écriture initiale qu’en
maintenance. On ne les conservera que dans les machines ne tolérant
qu’une infime marge d’erreur. Mais, même en ce cas,
les bugs inévitables en informatique et l’impossibilité
factuelle d’en détecter rapidement la cause prohiberont vite
de telles solutions. Partout, l’auto-diagnostic, l’auto-maintenance
et l’auto-développement se généraliseront.
Cependant, il y aura plusieurs types de robots évolutionnaires.
Les premiers et les plus répandus seront ceux dont les capacités
d’évolution seront « contraintes » dès
la conception initiale par des limites fixées à l’avance.
Les humains accepteront que leurs esclaves robotiques disposent d’une
certaine liberté, mais ils ne voudront pas en donner trop. A l’inverse,
dans les laboratoires ou dans les entreprises privilégiant l’innovation,
le bouleversement des idées reçues, une autonomie aussi
complète que possible sera considérée comme une qualité
à rechercher, voire à privilégier. De tels robots
présenteront certes des risques potentiels, mais c’est le
propre de toute technologie réellement innovante. Pour nous, il
serait aussi aberrant de refuser l’autonomie aux robots du futur
que de refuser de communiquer avec des extraterrestres, si certains d’entre
eux nous faisaient la grâce de nous visiter.
Ainsi, le robot autonome d’aujourd’hui, fût-il
très limité en autonomie, utilisera des solutions d’IA
incorporées (réseaux de neurones formels ou système
massivement multi-agents) pour construire par apprentissage des associations
stables entre les informations recueillies en entrée à partir
des organes sensoriels et effecteurs. Ces informations, convenablement
corrélées en fonction des retours d’expérience,
construiront dans le cerveau du robot de véritables univers. Ils
comporteront des détails indispensables à sa survie, aussi
bien triviaux (par exemple la représentation d’un pied de
table) que subtils et peu observables par l’homme (la lecture et
l’interprétation d’une émotion passagère
sur le visage d’un humain). Comme évoqué ci-dessus,
les robots autonomes de l’avenir présenteront le grand intérêt
de se doter de représentations du monde dont les humains n’auraient
pas eu l’idée et qui pourront être très utiles
à ces mêmes humains, comme le seraient les représentations
du monde présentées par les extraterrestres précités.
Les robots autonomes ne se limitent pas à construire
des images du monde. Ils formulent des hypothèses sur ce monde,
ou prévisions hypothétiques, s’appuyant sur les représentations
qu’ils en ont. Ils les testent ensuite en utilisant leurs organes
sensoriels et effecteurs. Ainsi un robot s’avancera jusqu’à
l’objet extérieur figuré dans son cerveau par les
photons émis par le pied de table. Il vérifiera, dans le
monde réel, l’influence de cet objet sur sa progression.
Autrement dit, il fera la prédiction (ou l’hypothèse)
que cet objet n’est pas un obstacle capable de l’arrêter
(ou l’hypothèse contraire). Au cas où le pied de table
se serait révélé un obstacle bloquant, l’information
correspondante sera mémorisée et de tels obstacles seront
à l’avenir contournés. Si par contre, les obstacles
visualisés et expérimentés se révèlent
faciles à déplacer, le robot n’en tiendra pas compte.
Par essais et erreurs se construira donc dans le cerveau du robot un ensemble
de représentations du monde extérieur, ou cartographie,
de plus en complète. Le contenu de cette cartographie représentera
pour le robot la « vérité » du monde, défini
par les « lois » exprimant les relations entre les entités
de ce monde, inconnaissable en soi, et leurs interactions avec les organes
du robot. Si ces lois expriment des constantes souvent rencontrées,
elles constitueront progressivement le corpus de références
« scientifiques » sur lequel s’appuiera le robot pour
distinguer entre les bonnes et mauvaises hypothèses, appréciées
au regard de ses chances de fonctionnement efficace sinon de survie.
Tout ceci paraîtra trivial. Le moindre animal doté
d’un rudiment de système sensori-moteur fait de même.
Pour les robots, il s’agit pourtant d’une véritable
nouvelle dimension que les plus sophistiqués d’entre eux
sont en train d’acquérir, sous l’impulsion d’humains
qui font confiance à cette approche(5).
Ces derniers sont encore rares. Ceci parce que, répétons-le,
les concepteurs des robots n’aiment pas concéder trop de
liberté à leurs esclaves. L’exploration de Mars par
les robots américains Spirit et Opportunity, aux résultats
par ailleurs remarquables, s’est faite sous un contrôle permanent
de la Terre. Comme les communications mettent plusieurs dizaines de minutes
pour parcourir la distance entre celle-ci et Mars, on ne pouvait pas attendre
des « rovers » beaucoup de réactivité. La crainte
de voir des engins coûteux échapper à leurs contrôleurs
terrestres était à l’époque trop grande. Mais
la confiance grandissante mise dans la fiabilité des capacités
d’auto-gestion des futurs orbiteurs, atterrisseurs et robots d’exploration
fait qu’aujourd’hui les nouvelles générations
de tels engins sont conçues comme comportant des systèmes
robotiques autonomes. Le contrôleur à terre ne reprendra
la main qu’en cas de difficultés inattendues.
Les cerveaux des robots autonomes de demain seront-ils
capables d’inventer véritablement ? Techniquement, la
réponse sera affirmative. Les bases de connaissances dont se sera
doté le robot permettront de susciter de nouvelles explorations
par essais et erreurs générées non seulement par
le fonctionnement aléatoire du corps, si celui-ci fait partie des
spécifications fonctionnelles du robot, mais par un mécanisme
d’induction qu’il est facile d’organiser à l’avance
et qui pourra se généraliser spontanément au sein
du robot en cas de succès. Le robot, autrement dit, formulera des
hypothèses s’appuyant sur ses bases de connaissance, les
soumettra à des tests pratiques et les modifiera en fonction des
retours d’expérience. En cas de succès, on pourra
parler de véritables inventions(6).
Mais pourquoi, dira-t-on, le ferait-il ? De telles démarches sont
nécessairement coûteuses en temps et énergie. Darwin
nous donnerait la réponse à cette question, qu’il
s’était posée à propos des animaux. Le robot
n’innovera pas parce qu’il sera programmé à
l’avance pour le faire. L’innovation, l’heuristique,
ne se programment pas. Il n’innovera (et ne se transformera en conséquence)
que si la concurrence avec d’autres entités lui disputant
l’accès aux ressources dont il se nourrit l’oblige
à le faire. Mais comment cette concurrence peut-elle s’organiser ?
Les roboticiens intelligents étant tous darwiniens,
ils ont commencé à comprendre que la capacité d’acquisition
de connaissances propre à un robot isolé sera bien moindre
que celle obtenue par une société de robots interagissant
ensemble. Les conditions les plus favorables à l’innovation
naîtront des pressions de sélection s’exerçant
au sein de cette société, par exemple à l’occasion
d’une concurrence pour l’accès à des ressources
rares. La première des innovations qu’acquièrent des
robots sociaux se traduit par une amorce de conscience de soi. Les études
sur l’acquisition de la conscience de soi par les robots montrent
comment progressivement un robot portant son attention sur un homologue
avec lequel il interagit apprend progressivement la logique du comportement
de celui-ci (théorie de l’esprit) puis l’applique à
lui-même en apprenant à s’observer lui aussi de l’extérieur.
Après la conscience de soi vient le langage. Si
ces robots sont placés dans un environnement sélectif leur
imposant de coopérer pour survivre, ils utiliseront leurs organes
d’entrée/sortie pour élaborer des messages leur servant
à échanger des informations (par exemple, « alerte,
voici un robot prédateur »). Ces échanges se simplifieront
et se normaliseront à l’usage, ce qui donnera naissance à
un proto langage commun, constitué de concepts et de syntaxes.
Dès qu’ils auront acquis ce langage, ils
l’utiliseront pour échanger et normaliser, toujours sur le
mode darwinien, leurs contenus de connaissances individuels. Une base
de connaissance collective « robotique » (c’est-à-dire
n’ayant en premier ressort d’intérêt que pour
faciliter leur propre adaptation) sera progressivement élaborée.
Les robots feront appel à elle quand leurs connaissances personnelles
se révéleront insuffisantes. Développées et
confirmées par des essais et erreurs collectifs, ces bases équivaudront
aux connaissances, empiriques puis scientifiques, accumulées par
les humains. Tout ceci est amplement démontré par divers
programmes de recherche, dont le programme européen ECAgents, auquel
nous conseillons vivement à nos lecteurs de se reporter(7)
.
Rien n’empêcherait évidemment les
humains d’utiliser ces bases de connaissances pour enrichir les
leurs propres, voire de s’inspirer des processus d’acquisition
des connaissances mis en œuvre par les robots (surtout s’ils
sont dotés d’organes sensoriels et effecteurs particulièrement
sophistiqués) pour améliorer les leurs.
Les processus décrits ci-dessus peuvent se dérouler
sans que les robots individuels ne développent une conscience supérieure
analogue à celle des humains. Leur conscience pourra se limiter
à ce que l’on nomme la conscience primaire chez l’animal.
Ceci étant, la conscience de soi ou conscience supérieure
artificielle offrira aux robots des avantages supplémentaires.
Ce seront en principe les mêmes que ceux de la conscience humaine
: proposer une vision globale du monde, incluant le sujet, génératrice
d’une meilleure adaptation. Il n’existe pas à notre
connaissance de trace de conscience de soi supérieure chez les
robots actuels. Un certain nombre de projets visent à obtenir ce
résultat, dont la portée pratique, mais aussi l’importance
scientifique et philosophique, seront considérables(8)
.
La conscience de soi sera progressivement acquise par
l’intermédiaire de capteurs dirigés vers l’intérieur
du système, qui en dresseront en permanence l’état.
Cet état, dès son élaboration, modifiera par feed-back
le comportement des unités d’entrées et de sorties
interagissant avec le monde. Ces nouvelles interactions généreront
à leur tour un nouvel état global du système lequel,
observé, modifiera à nouveaux les processus d’entrée-sortie,
ceci à l’infini.
Cependant, il ne faut pas anticiper. Nous pensons que
l’évolution vers des consciences artificielles est hautement
probable. Mais pour le moment, si les robots évolutionnaires sont
capables d’une certaine autonomie, par rapport aux instructions
précédemment chargées dans leur mémoire ou,
pour ce qui concerne les robots spatiaux, aux ordres envoyés par
la station de contrôle, ils ne sont pas capables d’inventer
véritablement des performances analogues à celles des êtres
humains, dans le domaine de l’adaptation rapide aux changements
et de la résolution de problèmes. A plus forte raison ils
ne sont pas capables d’inventer des comportements nouveaux, créer
des outils et moins encore d’éprouver des affects. D’une
façon générale, on dira qu’ils ne sont pas
capables de penser. Leurs performances, bien que déjà très
remarquables, n’atteignent même pas celle des animaux de laboratoire,
tels le rat ou la souris.
Pour les usages commerciaux ou militaires les plus courants,
ces performances sont généralement considérées
comme suffisantes. Or nous l’avons dit, les concepteurs de robots
veulent depuis déjà quelques années obtenir des systèmes
capables de se comporter véritablement « comme s’ils
» étaient des hommes. Les concepteurs de robots domestiques
ou de compagnie, principalement japonais, visent à produire des
systèmes capables de remplacer en tous points les aides-soignants
ou les auxiliaires domestiques. Les concepteurs de robots pour l’exploration
spatiale ou les applications militaires, généralement américains,
visent à obtenir des systèmes aussi performants, sinon davantage,
que des astronautes ou des combattants humains.
Les machines pensantes
Dans ce but, certains projets étudient la réalisation
des systèmes dits cognitifs (cognitive systems), selon la terminologie
américaine. Nous avons évoqué ce concept dans les
chapitres précédents consacrés à l’évolution
des systèmes anthropotechniques. Ici il s’agit de réaliser
sur les mêmes bases des prototypes de laboratoire opérationnels.
Un système cognitif robotique doit pouvoir disposer de véritables
états de conscience simulés, et générer l’équivalent
de faits ou contenus de conscience. Mais ces recherches sont couvertes
par le secret commercial ou de défense. L’Europe n’en
aura connaissance que lorsqu’ils seront développés
et proposés à la vente sous la protection de brevets les
rendant incopiables.
S’engager dans la réalisation effective
d’une véritable machine pensante représentera une
véritable recherche du Graal pour notre civilisation. Pour la première
fois, après les rêves des magiciens et les visions des auteurs
de science-fiction, on entreprendra de rapprocher ce qui, jusqu’ici,
est encore considéré comme inconciliable : l’homme
qui pour beaucoup de philosophes ou de croyants doit conserver le monopole
de la pensée consciente, et la machine, fût-elle un automate
perfectionné, qui ne peut pas et ne doit pas penser.
La porte sera alors ouverte, diront les adversaires d’une
telle démarche, non seulement à des machines qui rivaliseront
avec des hommes, mais à une science qui développera des
formes de vie artificielle capables de se retourner contre les humains
ou contre l’environnement biologique actuel. Dans la mesure où
les systèmes ainsi réalisés tiendraient leurs promesses,
il n’y a pas en effet de raison a priori de penser qu’ils
accepteront de rester asservis aux humains qui les auront conçus.
Les concepteurs pourront certes prévoir des dispositifs permettant
de désactiver ou neutraliser des entités artificielles devenues
hostiles, mais par définition, si ces entités sont aussi
intelligentes et capables d’évolution que les cahiers des
charges l’auront prévu, elles seront capables de réactiver
les désactivations, c’est-à-dire échapper aux
contrôles.
Un autre risque, plus immédiat, est qu’elles
soient utilisées par des groupes humains les mettant au service
de politiques de conquête et d’asservissement visant d’autres
humains. C’est déjà ce qui se fait avec des robots
infiniment moins complexes que ceux proposés ici. Ils sont utilisés,
notamment sur le Web et dans divers logiciels informatiques, par des militaires,
des policiers, des entreprises de communication et bien d’autres
intérêts économiques et politiques pour mettre en
condition les esprits et les comportements des citoyens ordinaires. Nous
sommes déjà, comme on peut le montrer facilement, soumis
à des contrôles et des stimuli qui font de nous, au moins
partiellement, les esclaves de forces que nous ignorons. L’alliance
de ces forces avec des robots capables de penser ferait de nos sociétés
de véritables bagnes.
Ceci dit, ces risques n’arrêteront pas les
recherches, pour une raison simple : aucun principe de précaution,
aucun moratoire n’empêchera que de tels systèmes ne
se fassent, dès lors qu’ils seront technologiquement possibles
et que des humains auront, quelque part dans le monde, compris l’intérêt
qu’ils auraient à les développer. Telle est la logique
des systèmes anthopotechniques étudiés dans cet essai.
On verra peut-être alors apparaître, en parallèle,
la solution la plus réaliste et la plus démocratique possible
: entreprendre pour le compte d’une démarche associative
ouverte au plus grand nombre ce que d’autres font déjà
ou feront dans le secret. Ainsi les citoyens ordinaires et leurs représentants
pourront, espérons-le, mieux comprendre les enjeux et les maîtriser
pour le bénéfice du plus grand nombre.
Nous avons montré à propos de l’IA
forte que ces perspectives sont techniquement très envisageables
aujourd’hui. Manque la conviction politique relative à la
nécessité urgente de les concrétiser.
Avenir de la robotique
La plupart des auteurs sérieux qui étudient
les perspectives de la robotique confirment que celle-ci prendra une place
de plus en plus grande dans nos sociétés, quelles que soient
les contraintes économiques et sociales du prochain demi-siècle.
Il est très probable que l’on verra les robots remplacer
aussi bien les machines actuelles que les hommes dans la plupart des tâches
industrielles. Par ailleurs, ils interviendront systématiquement
dans les activités de service et de loisirs. Enfin et surtout,
ils joueront un rôle prépondérant, en association
avec les humains ou même sans eux, dans les programmes de sécurité
défense et d’exploration des milieux hostiles, notamment
ceux de l’espace. Nécessairement, de ce fait, leurs relations
avec les humains se modifieront profondément. Nous nous interrogerons
au terme de cette étude sur la nature de ces relations. Les robots
et les humains seront, dans les sociétés ayant accepté
le tournant de la robotisation, étroitement imbriqués dans
ce que nous pourrons nommer des systèmes post-anthropotechniques.
Existera-t-il encore des sociétés qui refuseront
les technologies robotiques, par idéologie, ou qui ne pourront
pas les aborder, par pauvreté ? Une autre question d’importance
concerne les prélèvements sur les ressources mondiales rares
nécessaire à la fabrication de centaines de millions de
dispositifs robotisés. Ces derniers ne resteront-ils pas le privilège
de quelques favorisés. Il s'agit de questions d’importance,
que nous évoquerons en conclusion de cette section.
Si nous faisons le recensement des domaines où
les robots interviendront, directement ou indirectement, dans la vie des
humains au cours des prochaines décennies, nous voyons que, sauf
interruption accidentelle de la tendance actuelle, il n’existera
pratiquement pas de secteurs ou d’activités leur échappant.
Les corps biologiques « augmentés »
On doit rappeler que, depuis la nuit des temps, les hommes
n’ont pu survivre et se développer dans les milieux qu’ils
exploraient ou qu’ils se créaient eux-mêmes qu’en
se dotant de techniques de plus en plus loin des capacités d’un
corps biologique non transformé. Les vêtements, les habitats,
les véhicules, les moyens de communication représentent
des concentrés de technologies innovantes accumulées au
cours des âges. Depuis un demi-siècle, la révolution
scientifique et technique a profondément modifié les outils
et leurs usages. Le citoyen de la cité moderne, relié au
monde entier par des réseaux de communications numériques,
équipé de prothèses médicales performantes,
est considéré comme un extraterrestre par les rares survivants
des sociétés rurales traditionnelles.
Il faut bien voir que les progrès apportés
par la robotisation aux corps biologiques seront des sous-produits de
la fabrication de robots de plus en plus performants et multitâches.
Il est généralement plus facile d’adapter au vivant
une technique artificielle existante que concevoir celle-ci à partir
de la page blanche. Les budgets destinés à réparer
les handicaps sont par ailleurs trop faibles pour supporter des investissements
spécifiques. Néanmoins les produits robotiques à
destination « thérapeutique » seront sans doute de
moins en moins coûteux, avec la diminution du coût des composants
de base et l’automatisation de leur fabrication.
Les prothèses et augmentations des corps biologiques
intéresseront aussi bien les animaux que les humains. On évoquera
le risque que de telles techniques, commandant plus ou moins directement
la production des actions et des idées, soient imposées,
non seulement à certains animaux, mais aussi à certains
humains, afin d’en faire des « esclaves ». On retrouvera
ce risque tout au long des programmes de corps augmenté évoqués
ici. Il devra être résolu par la société, comme
bien d’autres risques technologiques. Sinon, les sociétés
de demain s’enfermeront dans des processus d’auto-destruction.
Les réparations ou augmentations de capacité
corporelle toucheront d’abord les membres. D’une part, l’on
réparera les amputations, grâce à des membres robotisés
commandés, soit par les nerfs s’il en reste de disponibles,
soit directement par le cerveau. D’autre part, des membres renforcés,
voire de véritables exosquelettes (squelettes extérieurs)
permettront aux individus normaux d’améliorer leurs performances
dans les tâches l’exigeant : production, exploration, champ
de bataille. On ne peut pas penser, en l’état prévisible
de ces technologies, qu’elles seront préférées
par les individus à l’utilisation de leurs membres d’origine,
car elles comporteront beaucoup de contraintes. Mais lorsque nécessité
fait loi, on ne discute pas.
Des organes internes entiers pourront par ailleurs être
remplacés par des appareils robotisés implantés et
de plus en plus miniaturisés et fiables. On connaît déjà
les stimulateurs cardiaques. Des cœurs artificiels de nouvelle génération
implantables sont en vue. On peut penser qu’il en sera de même
prochainement pour les poumons et sans doute aussi pour les reins. Les
organes jouant le rôle d’usine de transformation biochimique
ou secrétant des hormones, tels le foie, les intestins ou diverses
glandes internes, ne pourront pas être complètement remplacés,
sauf temporairement. Il ne semble pas envisageable, même à
terme, de leur substituer des automates secrétant, par exemple,
des nanoparticules de substitution. Mais qui sait ?
La réparation ou l’augmentation des capacités
corporelles concernera par ailleurs, et sans doute de façon particulièrement
spectaculaire, les différents organes des sens. Des champs de perception
tout à fait nouveaux s’ouvriront là. Les techniques
de recueil et de traitement des informations de type électromagnétiques,
sonores, moléculaires (odorat), tactiles dans lesquelles nous baignons
et que nous ne percevons pas naturellement pourront être considérablement
enrichies. Les difficultés à résoudre ne se limitent
pas au recueil et à la production de ces informations, que beaucoup
d’appareils font déjà plus ou moins bien. Si l’on
veut qu’ils augmentent réellement les capacités sensorielles,
les capteurs doivent être mis en relation directe avec les centres
compétents du cerveau. Beaucoup d’humains accepteront probablement
des intrants cérébraux si le bénéfice le justifie.
Mais les techniques de communication par casques ou autres systèmes
moins invasifs se multiplieront sans doute par ailleurs, avec une résolution
de plus en plus fine, afin de ne toucher que les faisceaux de neurones
le justifiant.
Jusqu’où iront les ajouts robotiques connectés
directement sur les centres nerveux. En sortie, les commandes générées
par le système nerveux ne devraient pas poser de problèmes.
Par contre, les stimulations en entrée resteront longtemps limitées
à des points bien délimités. Le fonctionnement du
cerveau est encore trop mal connu pour que l’on se risque, sauf
urgence, à y intervenir de façon systématique. Les
auteurs évoquent l’hypothèse de puces électroniques
implantées à demeure, mais, outre les risques, on n’en
voit pas l’intérêt réel. La communication entre
les humains et les robots se fera beaucoup plus facilement par les voies
naturelles. Les robots parleront les langages humains et les humains apprendront
aussi à parler les langages des robots, quand ceux-ci ne seront
pas immédiatement traduisibles dans les canaux de la communication
sociale courante.
Nous pensons a fortiori que les perspectives souvent
évoquées par certains futurologues, consistant à
télécharger sur des mémoires électroniques
le contenu de certains centres nerveux, voire du cerveau tout entier,
afin de créer des cerveaux artificiels reprenant les spécificités
des cerveaux humains correspondants, relèvent purement et simplement
de la science-fiction. Il faudrait d’ailleurs reprendre et télécharger
les milliers d’informations produites à tout instant par
les corps vivants entiers, avec notamment leurs nombreux « générateurs
d’émotions ». Si des cerveaux artificiels aussi riches
que ceux des humains pouvaient être construits, ils resteraient
cependant distincts. Les deux types d’entités, biologique
et artificiel, pourraient alors communiquer très largement et s’enrichir
respectivement.
On peut également concevoir que des cerveaux et
des corps artificiels coupent tous liens avec les cerveaux humains et
développent des vies intelligentes propres. Mais il semble bien
que les processus et contenus de l’intelligence et de la conscience
biologiques, telles qu’ils s’expriment spécifiquement
dans chaque individu humain, ne puissent avant très longtemps faire
l’objet, comme l’espère Ray Kurzweil, d’ingénierie
inverse et de transfert sur des mémoires électroniques,
aussi complexes et riches que puissent devenir ces mémoires. Il
n’est donc pas urgent de disserter comme certains le font, sur ce
que deviendrait l’unité du Moi s’il coexistait dans
une enveloppe corporelle et dans un système artificiel.
Les robots dits de compagnie
Nous avons déjà donné suffisamment
d’indications sur ce que sont déjà les robots dits
autonomes pour qu’il soit facile d’imaginer ce qu’ils
deviendront dans les prochaines décennies. Leurs places et leurs
rôles seront multiples. On peut admettre que tout ce que font actuellement
les humains, y compris les tâches de conception ou de commandement,
pourront être accomplis par des robots. Le seul facteur limitant
leur pénétration sera le coût que pourra représenter
l’adaptation de plates-formes existantes à de nouvelles tâches.
Il est évident que, lorsque le travail humain semblera présenter
un rapport performance-prix avantageux, l’homme sera préféré.
Mais il faut se souvenir de ce qui avait été dit à
propos des ordinateurs. On pensait initialement qu’ils devaient
rester limités aux calculs scientifiques ou techniques de haute
intensité. Aujourd’hui, ils sont partout et sont devenus
indispensables à tous.
Rappelons aussi que les robots de demain, comme d’ailleurs
ceux d’aujourd’hui, n’adopteront de formes anthropomorphes
que si celles-ci améliorent leurs capacités d’interaction
avec des humains. Pour toutes les activités ne demandant que de
l’efficacité fonctionnelle, les formes et modes d’intervention
les plus efficaces seront seules retenues, même si elles paraissent
contribuer encore davantage à la « deshumanisation »
des environnements futurs.
Evoquons ici, pour n’y plus revenir, la question
très théorique, n’intéressant encore que des
juristes en mal de copie, des droits et devoirs des robots face aux humains
et des humains face aux robots. Plus le robot sera autonome et humanisé,
plus on sera tenté de le traiter comme un humain. Pourquoi pas
? Nous pensons cependant que ces questions ne seront abordées avec
pertinence qu’en présence de difficultés concrètes.
Elles trouveront alors des solutions adéquates. La question, bien
plus urgente, des droits des animaux et des écosystèmes
mériterait beaucoup plus d’attention. Ce n’est malheureusement
pas le cas.
Les robots de compagnie qui sont déjà les
plus utilisés se trouvent au Japon, dans les services aux personnes
âgées ou handicapées. On sait que les sociétés
à la fois développées et vieillies, telle la société
japonaise, font largement appel, dès maintenant, à des assistants
robotisés là où des aides humaines deviennent rares
ou exigeraient de recourir à des immigrations dont ces sociétés
ne veulent pas. Au-delà de cette motivation conjoncturelle, il
est évident que lorsque le prix et les performances des robots
« sociétaux » auront évolué favorablement,
leur emploi se généralisera. A priori, de tels robots n’auront
pas besoin d’être anthropomorphes.
L’expérience montre cependant que l’empathie
nécessaire à de bons échanges entre humains et robots
suppose que les humains puissent s’imaginer avoir affaire à
des humains. Les conditionnements immémoriaux programmés
dans les relations sociales interhumaines ne peuvent jouer à plein
que si le robot ressemble à un humain ou à un animal familier.
L’humain est ainsi fait, aujourd’hui, qu’il est capable
de projeter sur un interlocuteur extérieur ses propres qualités
ou demandes de qualités. Comme les robots seront parfaitement capables
d’apprendre au contact des humains, ils deviendront très
vite, s’ils ne le sont pas complètement au départ,
aptes à se spécialiser dans des relations personnelles apportant
aux personnes solitaires ou en manque d’affectivité ce dont
elles croient avoir besoin.
On cite généralement, outre l’assistance
aux personnes âgées ou handicapées, les tâches
d’éducation ou de relation-publique-vente. La présence
d’un éducateur humanoïde capable de communiquer avec
les élèves en utilisant toute la panoplie des expressions
verbales et gestuelles sera bien préférable à l’éducation
par des machines. Il en sera de même de l’hôte(sse)
d’accueil ou vendeur.
Mais pour des raisons tenant à une pudeur mal
placée, les auteurs n’évoquent que rarement le rôle
des robots dans les activités sexuelles. Le sujet, qui est immense,
a été bien traité par l’ouvrage de David Levy,
Love+Sex with Robots(9) . Nous
y renvoyons le lecteur. Disons seulement qu’en ce domaine, la réalisation
de robots dont l’enveloppe corporelle et les facultés cognitives
seront proches, sinon plus satisfaisantes que celles des humains, générera
un marché considérable et des investissements en proportion.
Que ceux susceptibles de s’en indigner pensent au rôle que
jouent déjà les substituts des partenaires humains dans
la vie sexuelle, imaginaire et/ou physique de centaines de millions d’humains.
Pour les psychologues, la matière mériterait de nombreuses
études. On y verrait plus concrètement qu’ailleurs
comment se construisent ce que nous désignons dans ce livre par
le terme de systèmes anthropotechniques. Ajoutons que seuls s’inquiéteront
de ces perspectives les individus humains doutant de leurs capacités
corporelles ou intellectuelles à s’attacher des partenaires
également humains. Les autres ne s’arrêteront pas dans
leurs entreprises face à la concurrence des robots.
Les robots militaires et de sécurité
C’est là que s’investissent les capitaux
les plus importants actuellement. Il n’y aura malheureusement pas
de raison pour que cette priorité soit modifiée. Partout
prédominera le souci d’épargner le combattant de première
ligne, d’autant plus que son efficacité personnelle sera
de plus en plus mise en échec par les formes de guerres de demain,
exigeant à la fois technicité, réactivité
et insensibilité psychique. On dit quelquefois que les futurs conflits
seront ceux de la guerre des pauvres aux riches, dits aussi de la 4e génération.
Dans les deux cas, les belligérants feront appel à des robots
plus ou moins sophistiqués, dont le coût ne sera guère
supérieur à celui de l’homme. Citons en particulier
les drones et projectiles auto-guidés sur leurs cibles, agissant
soit isolément soit, dans les grandes armées, au sein de
réseaux complets de stations terrestres et satellitaires, tel l’actuel
Future Combat System des Etats-Unis. Les robots de sécurité
civile seront davantage axés sur la protection intelligente des
installations techniques et des villes. A un moindre niveau, ils se généraliseront
pour la garde des résidences particulières ou des jeunes
enfants.
Les robots d’exploration en milieux inhospitaliers
ou hostiles
On qualifie de robots, aujourd’hui, des véhicules
tels que les sous-marins de poche d’assistance aux travaux sous-marins,
les véhicules à roues dits Rovers utilisés sur Mars
ou les divers sondes et satellites automatiques servant à l’observation
ou à l’étude scientifique de la Terre, des planètes
et plus généralement de l’univers. Mais tous ces engins,
même lorsqu’ils sont inhabités, ne disposent que de
très faibles capacités d’initiative. Ils sont largement
programmés à l’avance ou sous contrôle humain.
C’est pourtant dans l’espace et sur le mode de l’exploration
confiée à des robots de plus en plus intelligents, de plus
en plus capables d’initiatives, que reposera l’avenir à
long terme de la robotique. Elle seule pourra concrétiser, dans
la plupart des cas, la vieille et légitime ambition visant à
étendre la science humaine à l’échelle cosmologique.
D’importants progrès seront à accomplir, afin que
les systèmes futurs puissent s’alimenter en énergie,
se maintenir, se réparer ou se multiplier sur un mode quasi biologique.
Mais les ingénieurs ne manquent pas de solutions. Aussi futuristes
qu’elles puissent paraître aujourd’hui, elles deviendront
banales demain. Ceci pour une raison simple, après la guerre et
la défense civile, c’est l’espace qui constitue déjà
une priorité stratégique pour les grandes puissances. Elles
sont engagées dans des rivalités de conquête analogues
à celles ayant opposé les Etats-Unis et l’URSS au
temps de la guerre froide. Ni l’argent, ni les moyens scientifiques
et techniques ne manqueront donc aux inventeurs. Ils ne manqueront pas
davantage aux robots du futur quand ils seront suffisamment évolués
eux-mêmes pour exiger des crédits de développement,
sur le mode de ce que font déjà les industries de l’armement
au sein des actuels lobbies militaro-industriels.
Mais alors ces robots, auxiliaires voire moniteurs des
humains dans les opérations d’exploration spatiale, susciteront
des interrogations métaphysiques. Comment leur refuser, non seulement
l’intelligence mais la conscience, sur le mode de ce que les humains
qualifient de ce terme. Comment ne pas s’attacher à eux ?
Supposons un groupe de robots développés
par une agence spatiale qui se comporteraient en tous points sur Mars
comme le ferait une équipe de cosmonautes humains. Ces robots éviteraient
les risques, identifieraient les zones intéressantes, échangeraient
entre eux et avec la Terre les résultats de leurs expériences,
réfléchiraient à de nouvelles stratégies d’exploration,
bref porteraient le meilleur de l’intelligence humaine sur une planète
qui pour quelques années encore reste inaccessible aux humains.
Il ne s’agit pas là d’une hypothèse gratuite,
car c’est précisément ce à quoi travaillent
les diverses équipes scientifiques qui visent à étendre
l’exploration spatiale au-delà de limites qu’elle n’a
guère dépassées depuis le débarquement américain
sur la Lune. Ces robots sont conçus comme devant précéder
l’arrivée de cosmonautes puis ensuite l’accompagner.
Ultérieurement, des objectifs plus ambitieux leur seront confiés.
On les enverra en mission sur des astres qui seront pour de nombreuses
décennies voire de nombreux siècles hors de portée
humaine. Ces astres sont déjà en partie explorés
par diverses sondes plus ou moins automatiques. Mais les possibilités
de ces dernières sont moindres que celles offertes par des robots
dotés d’une intelligence quasi humaine sinon véritablement
surhumaine qui pourraient débarquer et survivre sur place.
Or, à supposer que ces robots se comportent exactement
comme des humains, en faisant montre de capacités que chez l’homme
nous attribuons à la conscience, y compris une conscience morale
et un apparemment libre-arbitre, allons-nous déclarer qu’ils
sont dotés d’une conscience humaine ? Nous avons vu en examinant
les possibilités de l’IA forte que celle-ci peut simuler
des comportements de ce type, s’appuyant sur des « valeurs
» qui seront soit celles des sociétés humaines traditionnelles,
soit celles des nouvelles sociétés anthropotechniques étudiées
précédemment. Malgré tout cela, la réponse
commune risquera d’être longtemps négative. On dira
: « Ces robots se comportent comme s’ils étaient conscients
et moraux. Mais en réalité, ce sont nous, les humains, qui
sommes conscients et moraux. Ils ne le sont pas. Ce ne sont que des machines.
» Pourquoi cet ostracisme qui pourrait être qualifié
d’anthropocentrisme exacerbé ? Longtemps les mâles
humains ont expliqué de la même façon que les serviteurs
et les femmes n’étaient que des machines à peine améliorées.
Sans aborder la discussion au fond, nous pouvons signaler
une réaction significative du rejet que suscitent les robots destinés
à remplacer des pilotes ou opérateurs humains. Ainsi, d’ores
et déjà, l’armée américaine qui fait
un usage massif de drones télécommandés voudrait
généraliser leur remplacement par des systèmes robotiques
à pilotage autonome. Mais les pilotes d’avions militaires
ou civils manifestent la plus grande réticence face à cette
orientation, en arguant de risques pouvant en résulter. Tout laisse
penser cependant que des systèmes robotiques éliminant le
redoutable facteur humain et suffisamment redondants pour prévenir
les risques techniques seront plus fiables que les systèmes à
pilotage manuel. La communauté spatiale sait de même que
les spationautes sont très réticents à l’idée
de se faire précéder ou assister par des robots autonomes.
Ils ne protègent pas véritablement ainsi leurs emplois futurs.
Ils éprouvent certainement une sorte de peur métaphysique
dont les racines plongent loin dans l’inconscient.
Le jeu et la création artistique
Le jeu et l’art, conçus soit comme outils
de formation des jeunes humains, soit comme activités développant
l’imaginaire, la sensibilité et autres qualités rarement
sollicitées dans la vie professionnelle, feront aussi appel à
la robotique autonome. Inutile de s’attarder sur les compétitions
sportives entre robots, ou les exhibitions de robots danseurs ou peintres
dont le principal intérêt est encore pour le moment de stimuler
les recherches en robotique autonome. C’est par contre dans le domaine
de la réalité virtuelle que l’émergence de
robots numériques capables de se comporter en interlocuteurs autonomes
des humains impliqués dans de tels univers présentera de
l’intérêt. Nous ne traiterons pas cependant de la réalité
virtuelle dans cette rubrique, mais dans la section suivante.
3. Coopérations entre IA, robotique et sciences émergentes
On connaît la liste des sciences et technologies
dites émergentes et convergentes, nanotechnologies, biotechnologies,
cognotechnologies, infotechnologies. Elles font malgré la crise
l’objet d’intenses développements. Elles sont au coeur
du développement des grands systèmes anthropotechniques
modernes. Les questions philosophiques et politiques posées sont
innombrables. Nous aurions pu en discuter en détail mais le faire
aurait nécessité des dizaines de volumes. Bornons-nous à
évoquer ici leurs relations avec l’IA et la robotique. Elles
seront vite aussi étroitement et réciproquement imbriquées
que celles déjà entretenues avec l’informatique.
Les prothèses corporelles et mentales (hommes
et animaux dits cyborgs)
Nous avons déjà abordé ce point
plus haut, mais en nous en tenant aux ajouts provenant de de l’IA
et de la robotique. En fait, les cyborgs de demain (ou leurs prototypes
ludiques ou expérimentaux d’aujourd’hui) incorporent
de nombreux ajouts de type biologique sous forme de greffes diverses.
Ils font également appel à de nombreuses drogues ou stimulants
complétant les ressources d’ores et déjà abondantes
de la pharmacopée et de l’industrie. Beaucoup des comportements
correspondants relèvent de tendances difficilement tolérables,
dans les sociétés policées, et sont soumises à
la répression émanant de ce que l’on nomme le bio-pouvoir
ou pouvoir des autorités chargées de la prévention
des grandes pathologies et du suicidaire. Mais, dans une approche plus
darwinienne de l’évolution sociale, on peut les considérer
comme les manifestations d’une heuristique inconsciente visant par
essais et erreurs à susciter des mutations éventuellement
salvatrices.
En ce qui concerne les relations de la robotique avec
les comportements, déviants ou non, des cyborgs, il faudra prendre
garde au fait que ces comportements pourraient déstabiliser des
robots autonomes à la recherche de modèles. Ils provoqueraient
chez eux des réactions agressives ou délirantes qui se répercuteraient
sur l’ensemble de la société. Mais de tels risques
existent déjà. Un militaire ou un chercheur sous l’empire
de la drogue, plus banalement même un automobiliste sous imprégnation
alcoolique ou hallucinogène, peut se révéler une
redoutable machine à tuer.
Les réseaux intelligents (cerveau dit global)
La littérature mondiale sur ce sujet est immense.
Dès les origines du Web, on a voulu y voir l’équivalent
d’un cerveau biologique, disposant de neurones individuels dotés
d’une autonomie locale (pro-activité), reliés par
des canaux interneuronaux plus ou moins denses en fonction de la fréquence
des trafics, et s’organisant autour de centres serveurs eux-mêmes
distribués, sans contrôle hiérarchique central. La
génération de contenus informationnels circulant sur le
réseau dans une relative compétition a par ailleurs été
comparée à celles des idées créées
par des cerveaux individuels et échangées par les outils
de la communication sociale. On s’est demandé enfin si les
virus informatiques, dont l’apparition et la prolifération
éventuelles sur le Web ressemblent beaucoup aux modes d’action
des virus biologiques, ne seraient pas l’indice d’un début
d’autonomisation de la part de certains éléments du
Web lui-même considéré comme un cerveau global.
Il est certain que la réflexion sur les réseaux
artificiels, que ce soit ceux du Web, des simples communications téléphoniques
et postales ou des échanges de trafic entre centres urbains, présente
beaucoup d’intérêts pour les neurologues. Ils peuvent
ainsi mieux comprendre les échanges entre composants cellulaires
du cerveau. Mais la question qui nous intéresse dans ce livre est
un peu différente. Nous nous demandons si un réseau comme
le Web et plus généralement tous les réseaux électromagnétiques
reliant les humains peuvent donner naissance à des robots numériques
qui prendraient de l’autonomie par rapport aux utilisateurs humains
de ces réseaux, quitte à se retourner contre eux éventuellement.
Une autre façon de poser la question consiste à se demander
si des robots autonomes connectés au Web, comme beaucoup le seront,
pourraient profiter de ces connexions pour se regrouper, renforcer leurs
autonomies et devenir de plus en plus indépendants des humains,
voire hostiles.
Ces deux questions sont un peu différentes, mais
se complètent. La première consiste à se demander
si un réseau comme le Web pourrait évoluer sur le mode darwinien
en entités virtuelles acquérant des corps, des organes d’entrée
sortie et des cortex associatifs virtuels les transformant en véritables
entités artificielles quasi-biologiques. De telles entités
pourraient alors se développer et se complexifier dans le cadre
d’une compétition quasi biologique ressemblant à celles
que les méméticiens croient déceler entre mèmes
et mèmesplexes dans les actuels systèmes sociaux. Nous pensons
qu’en théorie, rien n’interdit de penser que cette
situation se produise. Nous avons vu, en étudiant l’IA, que
de nombreux programmes auto-générateurs et auto-complexificateurs
existent déjà. Leur population pourrait s’étendre,
si le monde du virtuel et des réseaux, qui est en pleine expansion,
leur offrait un terrain favorable. Ceux qui s’intéressent
à la détection d’éventuelles formes de vie
et d’intelligence extra-terrestres les rechercheront d’abord
sous de telles formes. Les tenants d’une vie terrestre post-biologique
pensent également que celle-ci pourrait émerger spontanément
sous cette forme en se superposant à la vie biologique.
L’opacité du monde des réseaux contemporains,
dont la complexité n’est analysable qu’en termes statistiques
globaux, incite certains observateurs à penser que des centres
de décision autonomes, échappant aux humains, sont déjà
en train d’émerger sur le Web. La puissance des moteurs de
recherche, le caractère touffu des réseaux de serveurs,
pourraient favoriser la naissance discrète de telles entités.
Nous pensons cependant pour notre part que rien, pour
le moment, ne semble justifier de telles hypothèses. Ces entités
se révéleraient très vite par des manifestations
explicites suscitant des résultats « aberrants » dont
l’on ne manquerait pas d’analyser les causes, comme on le
fait des multiples « bugs » générés en
permanence par les systèmes actuels. Il faut davantage craindre
les pouvoirs politiques ou économiques s’infiltrant sciemment
et discrètement sur le Web pour contrôler les comportements
et pensées de ses usagers. Nous sommes alors là en terrain
plus connu.
La seconde question, concernant les « augmentations
» que les robots pourraient acquérir en étant branchés
sur le Web (voire en se branchant spontanément sur le Web), est
beaucoup plus actuelle. Nous avons déjà indiqué qu’un
robot autonome de demain, disposant d’une connexion permanente sur
Internet, capable d’interroger les différents moteurs de
recherches, bases d’images et de connaissances y figurant, deviendrait
dans les relations quotidiennes ou professionnelles avec les humains un
compétiteur redoutable. Le Web fera de tels robots ce que l’on
pourrait nommer des post-robots, de même que le Web a fait incontestablement
de nous des post-humains, par comparaison avec les humains des sociétés
traditionnelles.
Ces facultés pourraient être exploitées
par les humains. Ils utiliseraient alors les robots et les IA associées
comme de super-machines à inventer, grâce à leurs
puissances dans la recherche d’idées et dans la génération
d’hypothèses. Ils s’éviteraient ainsi le mal
de collationner eux-mêmes des informations et de les regrouper en
modèles heuristiques. Cependant, si les humains prenaient prétexte
de l’assistance des robots pour s’éviter de penser,
ce serait grave. C’est un reproche que l’on fait déjà
aux addicts de la télévision.
Il semble cependant que le risque de voir les humains
se reposer sur des systèmes d’heuristique robotisés
pour s’éviter de penser eux-mêmes est faible, sinon
inexistant. Les cerveaux humains sont ainsi faits que, dans des corps
bien portants, ils ne se laissent pas submerger par l’afflux d’idées
neuves. Au contraire, ils les retraitent spontanément pour en extraire
des idées nouvelles enrichies. Rien n’est pire que l’isolement
sensoriel et informationnel pour la santé du cerveau. Nous pensons
que si les robots de demain devenaient capables d’explorer, non
seulement de nouveaux espaces physiques, mais de nouveaux espaces théoriques,
ils apporteraient beaucoup à la cognition collective et aux cerveaux
individuels eux-mêmes.
Les univers virtuels ou de synthèse
Nul n’ignore l’importance que prend désormais
ce que l’on nomme en simplifiant la réalité virtuelle
dans la création artistique, la recherche scientifique, les pratiques
professionnelles et plus généralement la vie quotidienne.
On peut la définir simplement comme une technique consistant, grâce
à des algorithmes mathématiques et informatiques, à
reproduire sur un écran des univers et des entités en 3
dimensions semblables ou au contraire très différents de
ce que nous rencontrons dans le monde réel. La plupart des créatures
du monde virtuel prennent l’apparence d’animaux ou d’êtres
humains avec lesquels les humains proprement dits ont la possibilité
d’interagir. On pourrait penser qu’il n’y a pas lieu
ici de les distinguer des robots. Ils posent les mêmes questions
que ces derniers quant aux possibilités d’introduire dans
les sociétés humaines traditionnelles des agents artificiels
dotés d’aptitudes à l’autonomie, face auxquels
les individus et les groupes devront mieux définir leurs spécificités,
s’ils en ont. Ce sera encore plus évident lorsque se généraliseront
les créatures virtuelles dites haptiques ou « à retour
d’effort », avec lesquelles le contact, bien que virtuel,
donnera l’impression d’être réel. Cette propriété
est déjà utilisée dans les émissions virtuelles
à finalité sexuelle.
Nous ne détaillerons pas ici les différentes
techniques permettant de construire un monde virtuel et y interfacer un
être humain en lui donnant l'impression qu'il y perçoit et
agit de manière naturelle : perception en 3 dimensions, immersion
sensori-motrice (systèmes haptiques précités), interaction
en temps réel, etc. Ces techniques sont des développements
de ce qui a été fait à plus petite échelle
dans le multimédia éducatif et ludique ou dans les simulateurs
industriels, destinés notamment à la formation des pilotes.
La conjonction de ces techniques conduit tout naturellement à la
réalité dite “augmentée” (“augmentée”
dans la mesure où elle utilise les techniques du virtuel puisque
toute réalité, en principe, peut être dite augmentée
par celui qui la perçoit avec un instrument quelconque). On aboutit
à la “télé-présence” ou “sortie
du corps”, qui n'ont pas là de dimension mystique, mais signifient
simplement que l'expérimentateur est complètement détaché
par le système des pesanteurs de sa cognition habituelle.
Un auteur comme Denis Berthier(10)
s’est attaché à étudier ce qu'il appelle le
“clonage de l'univers semiotico-cognitif” réalisé
par l’IA appliquée à la création virtuelle.
Il ne faut plus désormais distinguer les modèles mobilisant
les perceptions sensorielles de ceux s'adressant, via les agents de l'IA,
aux contenus de connaissance, c’est-à-dire à «
l'univers des signes, des savoirs et de la raison". Cette IA aboutit
à une augmentation sémiotico-cognitive du réel, qui
duplique ou complète l'augmentation sensorielle permise par le
virtuel. Ainsi par exemple le robot peut-il être considéré
comme l'habillage perceptible par les sens d'un agent virtuel opérant
dans notre monde, c'est-à-dire être considéré
comme une augmentation sémiotico-cognitive du réel aisément
perceptible du fait de son aspect humanoïde.
La réalité virtuelle, qui est dite aussi
réalité « augmentée », pose à
grande échelle la question de la prolongation des capacités
sensorielles des organismes biologiques par divers moyens artificiels.
On sait que le cerveau, s’il ne dispose pas de repères extra-sensoriels,
peut se montrer incapable de distinguer entre un monde réel et
un monde virtuel. Il n’y a là rien d’étonnant,
si les messages en provenant sont identiques ou quasi identiques. Faut-il
alors s’en inquiéter ou s’en réjouir ? Le risque
vient de ce que, aussi parfaite que soit l’imitation du réel
par le virtuel, cette imitation ne peut à elle seule embrasser
les infinis aspects de l’univers réel. Elle concentre l’attention
sur une toute petite lucarne en la détournant des dangers et opportunités
du monde réel. Le cerveau infecté par le virtuel vit alors
dans une étroite bulle au sein de laquelle il finira par dépérir.
Les films en réalité virtuelle, comprenant
ou non des acteurs réels, donnent une bonne idée de la philosophie
qui sous-tend la cosmogonie des mondes virtuels dans la production cinématographique
et les jeux vidéo : notamment la difficulté à distinguer
le virtuel du réel, la dimension mythique voire mystique de l'histoire,
la récursivité de la virtualité c'est-à-dire
le fait qu'un monde virtuel donne accès à un autre. Ils
permettent d’étudier aussi les répercussions de la
fréquentation des mondes virtuels sur les personnalités
des personnages. Celle-ci se traduit par la difficulté à
sortir du monde dans lequel ils sont immergés, la compulsion à
faire certaines actions, pouvant aller jusqu'à un “verrouillage”
dans le virtuel, selon le mot de Denis Berthier, verrouillage qui est
un peu à l'image du verrouillage que subit le spectateur. D'une
façon générale, on retrouve l'idée qu'il est
difficile, sinon impossible, de faire la preuve de ce qu'un phénomène
est réel face à son double virtuel. Certains physiciens
ont émis l’hypothèse que nous ne serions nous-mêmes,
dans notre monde supposé réel, que des acteurs virtuels
verrouillés dans un univers créé par des intelligences
émanant d’un super-univers extérieur à nous.
Ces films ou jeux vidéo, malgré leur apparente
diversité foisonnante, posent la question, importante de l'aptitude
qu'ont ou non les auteurs à imaginer des mondes virtuels véritablement
innovants. Nous avons un peu l'impression qu'ils se répètent
tous en exploitant un effet de mode. Au début, le caractère
original de ces films leur a permis de créer leur public, en faisant
sensation. Mais se renouvellent-ils aujourd'hui ? On retrouve dans ces
films le même défaut qui a frappé les films et séries
de science-fiction présentant des robots, chaque nouvelle œuvre
semblant un remake de Star Trek. De plus, l'originalité n'est-elle
pas finalement plus dans la forme que dans le fond. Les thèmes
sont transposés du vieux fond, mélange de mystique, de préjugés
et de manque d'ouverture aux autres sociétés, qui se retrouve
depuis une cinquantaine d'années dans toutes les formes d'expression
de la société américaine, roman et cinéma
notamment(11). La question nous semble
plus importante qu'il ne paraît. Pourrait-on inventer, ou plutôt
voir apparaître un virtuel qui remette radicalement en cause les
croyances et certitudes intellectuelles établies ? Sans doute pas,
si dans ce domaine comme dans tous les autres de la création, on
veut rester fidèle à des convenances qui sont, pense-t-on,
le prix à payer pour réaliser un chiffre d'affaires suffisant.
Cette contrainte peut expliquer, en partie, la difficulté
à faire, au moins dans ces films, la différence entre le
réel et le virtuel. C'est qu'il s’agit un peu du même
monde. Si l’on était capable de laisser des agents autonomes
(comme le seraient par exemple des extraterrestres, ou des animaux) nous
proposer des versions virtuelles de leur monde à eux, peut-être
pourrions-nous identifier des logiques radicalement différentes
à l'œuvre. Techniquement, c'est aujourd'hui impossible. Cependant,
si on considère que la sphère du virtuel s'étend
ou à vocation à s'étendre bien au-delà de
la cognition humaine actuelle, il faut garder cette idée en tête.
Les raisons de la difficulté à distinguer
le réel du virtuel s'expliquent en partie, avons-nous indiqué,
par le fait que le réel et le virtuel émettent des messages
sensoriels voisins, que notre cerveau n'a pas toujours la possibilité
de distinguer. On en a eu la preuve depuis longtemps en étudiant
les images produites par un miroir, ou diverses illusions d'optique. Mais
alors se pose
la question de la consistance de ce que nous appelons le réel.
Pour la philosophie scientifique moderne, il n'existe pas des entités
réelles en soi ou ontologiques, indépendantes de l'homme,
que celui-ci pourrait observer en se situant en dehors d'elles. Tout pour
lui se traduit par des représentations internes à son cerveau,
qui font l'objet de traitements différents selon l'expérience
de chacun. Il est donc important de se rendre compte que les garde-fous
mis par le bon sens traditionnel, permettant de ne pas confondre le réel
et l'imaginaire, les choses et leurs apparences, sont en train de disparaître.
Il faudra vivre dans un monde tout différent, dont les contours
apparaissent à peine.
Une deuxième question vient dans la suite de celle-ci.
Est-il possible de distinguer le virtuel du potentiel ? On répond
généralement par la négative. Le virtuel vise très
souvent à présenter des univers futurs, probables ou improbables,
comme s’ils étaient réels. Il fait tout pour empêcher
de les distinguer du réel. Il construit de véritables «
hallucinations » qui risquent d’enfermer en elles-mêmes
ceux incapables d’en sortir. Mais n’y a-t-il pas là
un élément favorable au renouvellement de notre monde quotidien
? Les scénarios explorant des mondes virtuels qui, soit n'existent
pas encore, soit même paraissent aujourd'hui impossibles, ne vont-ils
pas créer les conditions favorables à leur réalisation,
dans le sens où l'on dit que ce que l'homme imagine finit toujours
pas se réaliser ? Il est seulement dommage que pour le moment,
en raison sans doutes des déterminismes anciens à l’œuvre
dans les systèmes anthropotechniques, ce soit dans la création
de mondes hyperviolents que de tels scénarios trouvent le plus
d’addicts.
Beaucoup de prévisionnistes, nous l’avons
vu, envisagent le développement exponentiel des moyens de calcul,
qui se traduira par le développement lui-même exponentiel
des applications faisant appel au virtuel. Ceci s'accompagnera de la possibilité
croissante d'interagir directement avec les cerveaux, dans les deux sens,
soit pour créer des illusions sensorielles et cognitives, soit
pour donner une consistance matérielle aux créations de
l'imaginaire. Il paraît indéniable que, sauf catastrophe
dans le développement technologique, ces perspectives se réaliseront
un jour, peut-être même dans la première moitié
de ce siècle. Dans quels mondes vivrons-nous alors ? Les gens préféreront-ils
voyager dans des pays virtuels, reproduction ou non de pays réels,
plutôt qu'affronter les frais et les risques du tourisme sur une
planète surpeuplée et agressive. Préférera-t-on
fréquenter des partenaires artificiels, humains ou animaux, si
ceux-ci offrent autant de ressources que des êtres vivants, sans
imposer leurs contraintes ? On serait tenté de répondre
par l'affirmative, quand on voit la préférence déjà
affichée par beaucoup de nos contemporains pour l'illusion. Nous
avons effleuré cette question à propos des robots utilisés
comme des partenaires de jeu ou de sexe, d’autant plus facilement
qu’ils seront de plus en plus capables d’autonomie.
On peut également répondre à cette
question en rappelant que l'homme a toujours construit sa niche dans l'univers
en combinant inextricablement les ressources offertes par son organisation
biologique, les constructions cognitives de son cerveau, les ressources
de ses moyens de computation et finalement la mise en place de mondes
virtuels s'enracinant dans un réel dont on ne peut rien dire, sauf
qu'il paraît riche d'infinies possibilités (réel symbolisé
aujourd'hui par le concept de vide quantique). Plus généralement,
le monde dans lequel nous vivons serait fait d'une intrication permanente
entre le quantique, le cognitif, le biologique et le virtuel, dont la
pensée humaine contemporaine devra inévitablement tenir
compte. Ceci d’autant plus qu’en tous ces domaines se manifeste
un aspect fondamental de la rétroaction homme-machine : le prétendu
clonage modifie l'original.
Les vivants génétiquement modifiés
Avec les manipulations génétiques, nous
retrouvons des perspectives proches de celles de la robotique : la possibilité
de créer des entités réelles qui seraient proches
bien que différentes des humains et des animaux actuels. Par contre,
ces entités ne seraient pas artificielles (à base de composants
non biologiques). Au contraire, elles appartiendraient au monde biologique,
mais à une biologie détournée des voies évolutives
jusqu’ici suivies par la vie sur Terre. Ces détournements
seront le fait des sociétés humaines poursuivant différents
buts : l’intérêt économique, la curiosité
scientifique et plus généralement la volonté d’intervenir
dans des mécanismes jusque-là considérés comme
inabordables ou ne devant pas être abordés.
Les manipulations génétiques auront un
autre point commun avec la robotique. Elles permettront de créer
des hybrides entre le vivant et le robot qui augmenteraient éventuellement
considérablement les domaines d’action de l’un et de
l’autre. Il en résulterait en effet des symbioses qui pourraient
bénéficier des qualités respectives de chacun des
ordres pour se développer dans le domaine d’action naturel
de l’autre. On sait qu’il existe déjà de nombreuses
expériences visant à implanter des électrodes ou
des puces électroniques dans les cerveaux d’hommes et surtout
d’animaux. Des recherches militaires assez poussées visent
actuellement, par cet intermédiaire, à « piloter »
des mammifères, des oiseaux voire des insectes afin de leur faire
accomplir des missions offensives ou de surveillance. Mais les animaux
ainsi transformés restent en général sous le contrôle
d’opérateurs humains. Le temps n’est pas loin cependant
où, grâce à la miniaturisation, il sera envisagé
de remplacer une partie de leurs fonctions cérébrales par
de véritables robots autonomes.
A l’inverse, de nombreuses expériences reposent
aujourd’hui sur l’utilisation de neurones animaux ou même
de fragments d’aires cérébrales provenant de cerveaux
animaux, afin de piloter des systèmes robotiques. L’essai
n’a pas encore été fait, semble-t-il, avec des neurones
humains. Il s’agit plus pour le moment d’étudier le
fonctionnement des interactions entre messages externes et tissu cérébral
que de construire de véritables hybrides opérationnels,
dont l’intérêt n’apparaît pas évident.
Les animaux “utilisés” ou “détournés”
par le génie génétique souffrent on le sait de diverses
incapacités naturelles que les généticiens essaient
de pallier grâce à leurs manipulations. Ceci n’empêche
pas les recherches de s’intéresser à la possibilité
de réaliser des hybrides ou chimères entre individus d’espèces
voisines ou même différentes visant à cumuler dans
une même espèce au génome artificiellement modifié
les qualités des espèces parentes. De tels animaux nouveaux,
que l’on considérera très facilement comme du matériel
de laboratoire, pourront se voir greffer des composants robotiques plus
ou moins intrusifs. On aboutira à des résultats qui seront,
selon la proportion des composants biologiques et artificiels, soit des
animaux robotisés soit des robots animalisés.
Le génie génétique n’envisage
pas encore, pour des raisons éthiques, de procéder à
des hybridations véritables entre animaux et hommes. Par contre,
nous l’avons vu, les « augmentations de capacité »
offertes aux humains par l’apport de compléments chimiques
ou robotiques sont considérées en général
comme ne posant pas de trop graves problèmes. Ceci tant que ces
ajouts n’ont pas d’influence sur les génomes reproducteurs
et ne risquent donc pas de modifier l’espèce humaine en profondeur.
Cependant, là encore, le génie génétique a
commencé à proposer des méthodes permettant d’éliminer
l’expression de gènes supposés apporter des invalidités
ou maladies chez le sujet adulte. On le fait et on le fera de plus en
plus aussi chez l’embryon, par l’intermédiaire notamment
du « diagnostic pré-implantatoire », pour prévenir
la naissance de sujets jugés non désirables. Certains parents
enfin réfléchissent sérieusement à l’intérêt
que représenteraient des interventions sur leurs propres systèmes
reproducteurs afin d’éliminer d’emblée des gènes
« nuisibles » ou d’y introduire des gènes «
souhaitables ».
Tout ceci, on le sait relève encore d’acrobaties
médicales et n’offre aucune garantie de résultats.
Mais il ne faut pas s’illusionner. Ce que la génétique
et la biologie associée pourront faire pour « améliorer
» l’espèce humaine, ou certains de ses représentants,
sera fait un jour, à plus ou moins grande échelle. On verra
donc s’imposer la tentation de réaliser des hybrides biologico-robotiques,
non plus cette fois avec des animaux mais avec des humains. Ces hybrides,
contrairement aux « hommes augmentés » actuels, seront
dotés de qualités génétiquement programmées
leur permettant de coexister durablement et utilement avec des robots.
Ceci pour le plus grand bénéfice, dira-t-on, des deux espèces
concernées, l’humaine et l’artificielle.
De telles évolutions, évoquées aujourd’hui,
soulèvent en général l’indignation. Mais seront-elles
décidées « volontairement » par des chercheurs
ou des entrepreneurs sachant très bien sur quel terrain glissant
ils s’avancent et soucieux de respecter des limites d’ordre
éthique ? Seront-elles au contraire engagées au hasard,
sans finalités affichées et sans souci des suites possibles,
en prolongement des processus évolutifs subis par la Terre depuis
qu’elle est stabilisée sur son orbite. Nous pensons que cette
seconde hypothèse est la plus probable, Cependant, rien n’exclut
aujourd’hui que parmi de tels organismes mutants apparaissent certaines
forces capables d’influencer l’évolution globale, dont
l’action régulerait certains comportements anarchisants susceptibles
de détruire complètement les écosystèmes.
Le vivant artificiel ou synthétique
On désigne par ce thème les expériences
visant, non plus à intervenir sur les génomes des espèces
vivantes afin de créer de nouvelles variétés ou espèces,
mais à créer avec des composants entièrement artificiels
des entités qui se comporteraient de façon plus ou moins
fidèle comme des vivants. On dira que c’est bien l’objectif
de l’IA depuis les années 1970 (avec par exemple le Jeu de
la Vie de John Conway utilisant des automates cellulaires). C’est
très exactement aussi, avec des moyens autrement puissants, l’ambition
de la robotique. Mais la biologie synthétique est une démarche
différente, apparemment à la fois plus simple et plus compliquée.
Elle consiste à faire travailler ensemble des molécules
ou atomes appartenant à la chimie minérale et non à
la biochimie, afin de recréer des entités artificielles
ayant les propriétés de la vie au niveau le plus fin, celui
de la cellule et de ses composants (par exemple les ribosomes).
Les recherches sur la vie synthétique ont toujours
intéressé les biologistes cherchant à connaître
le fonctionnement des systèmes vivants naturels. L’espoir
à plus long terme est de réussir une synthèse de
la vie. Une manière simple et directe de vérifier notre
compréhension actuelle des mécanismes du vivant est de construire
un exemplaire (ou une version) d’un système selon notre compréhension
de ce dernier. Le travail avant-gardiste de Michael Elowitz du Caltech
est un bon exemple d’une telle approche. Michael Elowitz avait élaboré
un modèle du fonctionnement de l’expression génétique
dans les cellules vivantes. Pour le vérifier, il construisit un
morceau d’ADN selon son modèle, le plaça dans les
cellules vivantes et observa les résultats. De tels travaux utilisent
beaucoup de mathématiques pour prédire et étudier
les dynamiques des systèmes biologiques avant de les construire
de manière expérimentale. Une difficulté clairement
soulignée cependant par Jean-Jacques Kupiec tient à ce que
dans ces tentatives de reconstruction, les biologistes ou biochimistes
s’inspirent de ce qu’ils savent aujourd’hui de la vie,
c’est-à-dire qu’ils y répercutent beaucoup d’erreurs
- notamment celles de la biologie moléculaire traditionnelle.
Mais ceci pourrait en principe être évité dans le
futur.
Les systèmes biologiques sont des systèmes
physiques composés de matériaux chimiques. Il y a environ
cent ans, la chimie passa de l’étude des matériaux
chimiques naturels à la conception et l’élaboration
de nouveaux matériaux chimiques. Cette transition inaugura le domaine
de la chimie de synthèse. Certains aspects de la biologie de synthèse
peuvent être vus comme une extension et une application de la chimie
de synthèse à la biologie, allant jusqu’à créer
de nouveaux matériaux biochimiques qui puissent non seulement éclairer
les origines de la vie sous sa forme actuelle mais proposer de nouvelles
formes de vie biologique. De nombreux travaux américains explorent
avec succès ces perspectives.
Les ingénieurs pour leur part voient la biologie
comme une technologie. La biologie de synthèse inclut une large
redéfinition et extension de la biotechnologie, avec le but ultime
d’être capable de concevoir et construire des systèmes
biologiques fabriqués qui traitent l’information, manipulent
les éléments chimiques, produisent de l’énergie,
fournissent de la nourriture et maintiennent et améliorent la santé
humaine et notre environnement. Un des aspects qui distingue la biologie
de synthèse de l’ingénierie génétique
traditionnelle est son souci de développer des technologies fondamentales
rendant l’ingénierie biologique plus facile et plus fiable.
Les « réécrivains » sont des biologistes synthétiques
souhaitant vérifier l’idée que, puisque les systèmes
biologiques naturels sont si compliqués, nous ferions mieux de
reconstruire le système naturel qui nous intéresse à
partir de zéro, afin de fournir des produits plus faciles à
comprendre et avec lesquels l’interaction serait plus facile.
Il faut savoir que les recherches avancent vite concernant
la création de formes de vie artificielle dotées des propriétés
de la vie biologique, notamment la réplication et la capacité
de s'alimenter. A la XVe Conférence Internationale sur l'origine
de la vie, qui s'est tenue à Florence les 24/29 août 2008,
une équipe dirigée par le Dr Jack Szostak, de la Harvard
Medical School, a présenté le prototype de protocellules
comportant l'équivalent d'informations génétiques
leur permettant de se reproduire. Ces protocellules comportent des molécules
d'acide gras qui peuvent se lier avec des morceaux d'acides nucléiques
contenant le code source nécessaire à la réplication.
Conjuguées avec un processus permettant de capter l'énergie
solaire ou d'utiliser l'énergie de réactions chimiques,
elles peuvent former un système auto-réplicateur auto-évolutif
qui, sans ressembler encore à la vie terrestre actuelle, pourrait
simuler les formes de vie terrestre à ses débuts, ou telle
qu'elle pourrait exister sur d'autres planètes.
Le modèle montré à Florence n'est
pas encore pleinement autonome, mais représente la forme de vie
artificielle utilisant des composés chimiques la plus achevée
à ce jour. Il comporte des membranes capables de grandir et de
se reproduire. Cependant, il faut aller plus loin et reconstituer les
conditions de l'évolution darwinienne primitive en créant
les forces sélectives s'appliquant à un grand nombre de
séquences capables de se modifier arbitrairement, sur le mode des
mutations aléatoires. Ce processus une fois enclenché sera
particulièrement intéressant car les chercheurs ne pourront
pas, par définition, prédire a priori les formes auxquelles
il aboutira. Il s'agira de créer une forme de vie nouvelle que
les humains n'ont jamais vue et qui n'a peut-être jamais existé
(sauf sur d'autres planètes ?).
Les auteurs de cette communication(12)
considèrent que les protocellules ainsi réalisées
représentent une forme de vie artificielle plus complète
que celle dite de la biologie synthétique étudiée
par Craig Venter. Celui-ci s'efforce de construire une bactérie
artificielle E. Coli disposant du plus petit nombre de gènes possibles
compatibles avec la réplication. Mais le produit de cette recherche
ne sera pas une forme de vie nouvelle, contrairement aux protocellules
de Jack Szostak. Il se bornera à reconstituer une cellule comparable
à celles qui existent déjà sur Terre. Or les cellules
biologiques disposent de mécanismes développés au
long de millions d'années d'évolution, qui en font de véritables
petites usines ou nanomachines visant à asservir l'énergie
pour faire des copies d'elles-mêmes. Il s'agit de systèmes
déjà très perfectionnés disposant d'une machinerie
moléculaire très complexe, qu'il n'est pas possible de synthétiser
à partir de composés chimiques.
Les protocellules de Jack Szostak se situent bien en
amont de telles réalisations. Elles se placent au niveau de ce
qui pourrait être l'origine véritable de la vie terrestre,
ou d'une sorte de vie n'ayant jamais encore existé sur Terre et
pouvant éventuellement apparaître dans des planètes
disposant d'un environnement physique et chimique différent, éventuellement
dépourvu d'eau liquide.
L'équipe espère disposer en laboratoire
d'un système auto-réplicateur complet dans un futur proche.
Peut-être se trouve-t-on au début d'une véritable
révolution des sciences de la vie. Depuis les premières
expériences de Stanley Miller, comme on le sait, les chercheurs
et les philosophes ont toujours espéré, mais en vain, pouvoir
faire revivre le début du début de celle-ci. Le modèle
de Szostak n'a pas cette ambition. Il ne nous dira pas nécessairement
comment la vie est effectivement apparue sur Terre. Il montrera seulement
comment elle aurait pu apparaître, quitte à évoluer
de façon très différente. Ce serait, pensons-nous,
encore plus intéressant, notamment pour les exobiologistes.
Concernant l’avenir de la robotique, on voit que
la biologie synthétique ne présente pas les inconvénients
éthiques ou les difficultés scientifiques obligeant à
réaliser des symbioses viables entre de l’artificiel ou du
biologique. On peut très bien envisager doter les robots de demain
de corps exploitant les propriétés de la biologie synthétique
et leur permettant d’interagir plus facilement avec les humains
et les animaux. Ces interactions pourraient avoir des finalités
thérapeutiques. Plus généralement, elles poursuivraient
l’objectif de faire apparaître des robots compagnons beaucoup
plus acceptables par les sociétés humaines traditionnelles
et plus efficaces qu’ils ne sont actuellement.
On devra cependant se poser la question des risques pouvant
éventuellement résulter de la mise en circulation dans nos
écosystèmes de robots biosynthétiques pouvant se
reproduire par emballement. Ces risques sont aussi à prendre en
considération concernant les relations entre la robotique et les
nanotechnologies.
Les nanomatériaux et nano-objets
Les nanosciences et nanotechnologies (NST) peuvent être
définies comme l'ensemble des études et des procédés
de fabrication et de manipulation de structures, de dispositifs et de
systèmes matériels à l'échelle du nanomètre
(milliardième de mètre). Dans ce contexte, les nanosciences
sont l’étude des phénomènes et de la manipulation
de la matière aux échelles atomique, moléculaire
et macromoléculaire, où les propriétés physico-chimiques
diffèrent sensiblement de celles qui prévalent à
une plus grande échelle. Les nanotechnologies, quant à elles,
concernent la conception, la caractérisation, la production et
l’application de structures, dispositifs et systèmes par
le contrôle de la forme et de la taille à une échelle
nanométrique.
On considère très généralement aujourd’hui
que les nanosciences ouvrent des perspectives considérables aux
sciences de l’ingénieur et à la robotique, en permettant
soit de réaliser de nanomachines ou nanorobots capables d’opérer
par exemple à l’intérieur du corps, soit d’obtenir
des matériaux de grande résistance (par exemple des nanotubes
de carbone) offrant une grande résilience pour la réalisation
des éléments physiques des robots. Nous pensons que ces
perspectives sont intéressantes mais que pour le moment elles relèvent
encore de la recherche fondamentale. Il est difficile de concevoir des
nanorobots, faits d’une ou plusieurs nanoparticules, si l’on
ne sait pas comment les doter de propriétés les rendant
aptes aux opérations logiques.
La presse confond souvent à cet égard les
nanomachines avec des machines travaillant à l’échelle
microélectronique, les MEMS. Un MEMS ou microsystème électromécanique
comprend un ou plusieurs éléments mécaniques, utilisant
l'électricité comme source d'énergie, en vue de réaliser
une fonction de capteur et/ou d'actionneur avec au moins une structure
présentant des dimensions micrométriques. Issus de la technologie
de la microélectronique, les MEMS font appel pour leur fabrication
à cette dernière, laquelle permet une production à
grande échelle. Leurs applications sont désormais nombreuses,
notamment en robotique.
Un des avenirs des nanotechnologies en robotique repose
sur la capacité d’utiliser les nanocomposants non de façon
isolée mais en essaims de millions d’unités de base.
Ces essaims pourraient alors se comporter comme des robots macroscopiques,
disposant de corps et d’unités logiques leur permettant d’agir
de façon coordonnée. Des applications militaires ou spatiales
(smart dust ou poussières intelligentes) sont déjà
à l’étude. De tels essaims pourraient en effet survivre
sans les contraintes des organismes biologiques et préfigurer des
formes de vie et d’intelligence en milieu hostile ou extraterrestre.
On sait que les chercheurs s’intéressent
par ailleurs aux possibilités de l’ingénierie moléculaire.
Certaines nanomolécules pourraient se reproduire spontanément,
sur un mode quasi biologique. La science-fiction a exploité des
scénarios selon lesquels des nuages de nanomatière dotés
de propriétés organiques pourraient envahir notre environnement
(grey goo). Dans une perspective plus concrète, il s’agirait
d’une formule permettant d’obtenir des robots auto-réplicants
susceptibles de coloniser le système solaire. Le risque d’un
emballement mettant en péril la vie sur Terre existera à
terme, comme dans tous les domaines de la science, mais il ne nous paraît
pas justifier les peurs quasi religieuses que suscitent actuellement les
nanotechnologies dans certains milieux, y compris semble-t-il à
la Cour Royale d’Angleterre.
Les « objets » quantiques
Les progrès des calculateurs quantiques sont lents
mais indéniables. Il faut les connaître car la possession
d’un ordinateur quantique révolutionnera les perspectives
de l’IA et de la robotique. Le premier pays qui maîtrisera
complètement de tels dispositifs se donnera une avance stratégique
indépassable sur les autres. Il pourra, en cas de conflit, rendre
inutilisables la plupart des ordinateurs et réseaux actuellement
en place.
On ne décrira pas ici un ordinateur quantique.
Disons seulement qu'il utilisera les propriétés des bits
quantiques ou qbits. Un qbit est un système quantique monté
en laboratoire. Il peut s'agir d'un atome ou d'une particule, entouré
d'un champ magnétique intense et subissant des impulsions radio
de haute fréquence qui modifient par exemple sa rotation (son spin).
On attribuera la valeur 1 à une rotation dans le sens des aiguilles
d'une montre et la valeur 0 à la rotation en sens inverse, c'est-à-dire
les deux valeurs utilisées dans le langage binaire des informaticiens.
Compte tenu de la difficulté que l'on rencontre pour manipuler
de tels atomes, le nombre maximum des qbits qui ont pu être mis
en œuvre dans les prototypes les plus récents d'ordinateur
quantique ne dépasse pas 7 - ce qui paraît risible au regard
des dizaines de millions d'unité composant le processeur d'un simple
micro-ordinateur.
Mais la particule isolée peut, comme l'enseigne
la mécanique quantique, se trouver dans deux états à
la fois. C'est ce que l'on appelle l'état de superposition cohérente.
Si on veut s'en servir comme unité de représentation de
l'information (bit) elle peut donc présenter simultanément
l'état 1 et l'état 0. L'ordinateur quantique calcule ainsi
en manipulant des bits pouvant prendre soit la valeur 1, soit la valeur
0, soit la superposition 1 et 0. Avec deux bits, un ordinateur classique
peut représenter un des 4 nombres traduits en binaire par 00, 11,
01 ou 10. L'ordinateur quantique, lui, peut représenter simultanément
ces 4 nombres. Trois qbits, de même, pourront représenter
simultanément 8 nombres, au lieu de 1 nombre à la fois.
La suite en proportion, chaque nouveau qbit ajouté aux autres doublant
la quantité de nombres représentés par la séquence :
quatre qbits représentent 16 nombres, cinq qbits 32 nombres…
dix qbits 1.024 nombres/ N qbits peuvent mémoriser 2 puissance
N nombres. Il en résulte que si on utilise trois qbits comme donnée
d'entrée en vue d'un calcul (diviser par 2 ou extraire la racine
carrée), comme ils représentent 8 nombres, ils feront 8
calculs à la fois chaque fois que l'on changera l'état d'un
des bits. L'ordinateur quantique est donc d'abord un calculateur massivement
parallèle. Avec 13 atomes (ce qui n'est pas envisageable pour le
moment), il atteindrait la puissance de calcul en parallèle de
l'ordinateur Blue Mountain d’IBM.
Un ordinateur quantique peut utiliser n'importe quelle
particule susceptible d'avoir deux états en superposition. Des
ordinateurs quantiques peuvent être construits à partir d'atomes
qui sont à la fois excités et non excités au même
moment. Ils peuvent être construits à partir de photons de
lumière qui sont à deux endroits au même moment. Ils
peuvent être construits à partir de protons et de neutrons
ayant un spin soit positif soit négatif ou les deux en même
temps. Une molécule peut contenir plusieurs millions de protons
et de neutrons. Elle peut donc, théoriquement, être utilisée
comme ordinateur quantique doté de plusieurs millions de qbits.
Les capacités potentielles de calcul correspondraient, avec un
ordinateur classique, à des durées de plusieurs fois l'âge
de l'univers. On imagine ainsi le gain de temps calcul et d'utilisation
mémoire à laquelle peut conduire cette nouvelle technologie.
Mais elle promet aussi beaucoup plus : les vrais progrès viendront
aussi de nouveaux algorithmes qui vont permettre de résoudre des
problèmes jusqu'alors inaccessibles pour l'informatique classique.
Il y a donc un intérêt stratégique
majeur à maîtriser cette puissance, sachant que les nombres
et les calculs sont aujourd'hui à la source de toute connaissance
et de toute action sur le monde. De nombreux laboratoires se sont donc
mis en piste. Mais une énorme difficulté a jusqu'ici arrêté
les chercheurs : la difficulté de maintenir en état de superposition
un ensemble de plus de 1 particule. La localisation ou l'impulsion d'une
particule quantique en état de superposition ne peuvent être
définies que par une probabilité statistique découlant
elle-même de la fonction d'onde de la particule. Pour connaître
exactement ces valeurs, il faut faire interférer la particule avec
un instrument, comportant par définition une grande quantité
d'atomes. Mais alors, la fonction d'onde s'effondre et l'observateur n'obtient
qu'une seule des deux valeurs, l'autre étant définitivement
perdue, en application du principe d'indétermination. C'est ce
que l'on appelle aussi le phénomène de la décohérence.
Pour qu'un ou plusieurs qbits conservent leur caractère
quantique, et puissent donc travailler en état de superposition,
il faut les isoler de toute matière ou énergie avec lesquels
ils interféreraient - ce qui paraissait impossible ou très
difficile dès que le nombre de qbits dépassait deux ou trois.
Aujourd'hui cependant, en utilisant diverses techniques, un certain nombre
de laboratoires ont annoncé (comme un grand succès célébré
unanimement par la communauté des physiciens) avoir maintenu à
l'état quantique de courtes séquences de bits (4 à
7) et pour des durées de temps suffisantes à la réalisation
de quelques opérations.
L'avenir de l'ordinateur quantique repose donc sur les
technologies qui seront utilisées pour générer et
maintenir en état de superposition cohérente des chaînes
de bits de plus en plus longues. La démarche consiste à
réaliser d'abord une porte logique quantique (ou système
microscopique), généralement de 2 qbits, capable de pratiquer
une opération quantique élémentaire dans une longueur
de temps donnée. Les physiciens ont depuis longtemps réussi
à maintenir en état de superposition un atome ou un photon
isolé. Mais si on veut créer des circuits avec ces portes,
en les ajoutant les unes aux autres, les risques de décohérence
augmentent rapidement, du fait de l'interaction avec les atomes de l'environnement.
L'information utile se trouve donc dissipée. Il faut donc réaliser
des systèmes microscopiques où les qbits interagissent avec
eux-mêmes et non avec ceux de l'environnement. C'est là l'enjeu
essentiel de la course à l'ordinateur quantique, engagée
depuis une dizaine d'années dans les principaux pays du monde.
Différents substrats et différentes méthodes de détection
(par exemple la résonance magnétique nucléaire) sont
actuellement expérimentés.
Même si l'état actuel de la technique ne
permet pas de l'envisager à brève échéance,
nous devons conclure cette rubrique en évoquant la perspective
d'un robot dont le cerveau serait constitué d'un ordinateur quantique.
Comme indiqué plus haut, peu d'organismes vivants ou matériels
seraient alors capables d'entrer en compétition avec lui dans le
domaine des facultés logiques, voire de la création affective.
Faudrait-il alors parler d'un robot parfait, comme on parle de la tempête
parfaite (Perfect storm)?
1.* Voir sur ces sujets Serge Boisse,
L’Esprit, l’IA et la Singularité, éditions en
ligne Lulu.com, 2007
* Voir aussi Jacques Pitrat, Artificial Beings. The Conscience of a Conscious
Machine ISTE 2009
Retour
2. Daphne Koller
http://robotics.stanford.edu/~koller/research.html
Retour
3. Cf. le Singularity Institute for
Artificiel Intelligence http://www.singinst.org/
Retour
4.Voir pour plus de détails http://www.alaincardon.net/
Retour
5. On lira dans la Revue Philosophique
de la France et de l’Etranger, N° 3 juillet-septembre 2008,
Simulation et connaissance, un article de deux roboticiens français,
Frédéric Kaplan et Pierre-Yves Oudeyer, sur ce sujet : Le
corps comme variable expérimentale, p. 287
Retour6. Voir les perspectives
offertes par les deux robots « scientifiques » ou «
inventeurs » Adam et Eve, http://www.automatesintelligents.com/labo/2009/avr/adam.html
Retour
7.
http://www.ecagents.org/
Retour
8. En France, le tout nouveau
Pôle de productivité dit Cap Robotique pourrait soutenir
de telles initiatives ; encore faudrait-il que des innovateurs audacieux
se fassent connaître. Voir http://www.automatesintelligents.com/edito/2009/mai/edito.html
Retour
9. David Levy, Love+Sex with Robots,
Harper 2007
Retour
10. Denis Berthier, Méditations
sur le réel et le virtuel, Collection Impact des nouvelles
technologies, L'Harmattan 2004
Retour
11. Rien de plus lassant que les personnages
et les situations du jeu à succès Wow, World of Warcraft
Retour
12. Sheref S. Mansy & Jack W. Szostak,
Thermostability of model protocell membranes, PNAS, 3 septembre 2008
(voir l'abstract)
Retour
|