L’ordinateur quantique
Cette annexe a été
écrite en commun par l'auteur, et par Christophe Jacquemin*, en
janvier 2004.
Voir également l'article plus récent de Christophe Jacquemin
:
Un ordinateur
quantique commercialisé dès 2008 ?
Le département de la défense américain
(DOD) dispose au Los Alamos National Laboratory du 2e ordinateur le plus
puissant du monde, nommé ASCI Q (avec à terme 30-teraflops).
Celui-ci complète les ressources du précédent, Blue
Mountain (3-teraflops). Le DOD a demandé récemment au Laboratoire
de concevoir pour 2008 une machine capable d'effecteur 1 million de milliards
d'opération par seconde, soit 1 petaflop. Ces machines servent
à la simulation des essais nucléaires. Mais des machines
de même puissance ont dans le civil de nombreux autres usages tels
que la simulation des molécules biologiques en bio-informatique,
ou celles de la Terre en écologie (Earth simulator japonais). Elles
coûtent extrêmement cher, sont très encombrantes et,
finalement, de très mauvais rendement car elles ne peuvent utiliser
qu'environ 10% de la puissance informatique totale, le reste servant essentiellement
à faire coopérer les processeurs.
La course à la puissance des ordinateurs classiques
n'a cependant pas atteint son terme. En application de la loi de Moore,
les matériels vont encore accroître leurs performances dans
les 15 prochaines années. En matière de logiciels, on pourra
faire appel à l'intelligence artificielle distribuée pour
améliorer les traitements. Mais la limite approche. Notamment parce
que les composants commencent à travailler au niveau de l'atome,
ce qui représente une barrière infranchissable si l'on veut
détecter les signaux. Au-delà, on passe dans la physique
subatomique ou quantique.
Conscients de cette barrière technologique inéluctable,
et déjà depuis une vingtaine d'années, des chercheurs
en informatique se sont demandé comment utiliser les propriétés
de la matière au niveau quantique. Le premier qui en eut l'idée
a été Richard Feynman. Il le suggéra pour solutionner
les problèmes dits "NP-hard" (le nombre des calculs nécessaires
pour résoudre un de ces problèmes croît exponentiellement
avec le nombre des variables en cause, si bien que le problème
est insoluble sur un ordinateur ordinaire). L'idée a été
reprise quelques années plus tard par David Deutsch. Ces réflexions
ont donné naissance à de nombreux projets dans le monde
visant à définir puis expérimenter un ordinateur
quantique.
Propriétés du bit quantique ou qbit
On ne décrira pas ici un ordinateur quantique possible.
Disons seulement qu'il utilisera les propriétés des bits
quantiques ou qbits. Un qbit est un système quantique monté
en laboratoire. Il peut s'agir d'un atome ou d'une particule, entouré
d'un champ magnétique intense et subissant des impulsions radio
de haute fréquence qui modifient sa rotation (son spin). On attribuera
la valeur 1 à une rotation dans le sens des aiguilles d'une montre
et la valeur 0 à la rotation en sens inverse, c'est-à-dire
les deux valeurs utilisées dans le langage binaire des informaticiens.
Compte tenu de la difficulté que l'on rencontre pour manipuler
de tels atomes, le nombre maximum des qbits qui ont pu être mis
en œuvre dans les prototypes les plus récents d'ordinateur
quantique ne dépasse pas 7 - ce qui paraît risible au regard
des dizaines de millions d'unité composant le processeur d'un simple
micro-ordinateur.
"Ordinateur
quantique", oui mais liquide, physique ou gazeux ?
Comment se présentera l'ordinateur quantique
dont certains prévoient des applications industrielles
dès les années 2020 ? Sera-t-il solide, liquide
ou gazeux ? Aura-t-il la taille d'un immeuble ou tiendra-t-il
dans la main ? Bien malin qui aujourd'hui pourrait le dire...
L'un
des résultats ayant le plus défrayé la chronique
est celui de la factorisation du nombre 15 par l'équipe
d'Isaac Chuang (centre de recherche Almaden d'IBM) à l'aide
d'un ordinateur quantique à 7 qbits [notre
actualité du 19 décembre 2001] faisant
ainsi la première démonstration de l'algorithme
de Shor (voir plus bas, corps de l'article).
Ici, l'approche prend en compte la Résonance Magnétique
Nucléaire (RMN) appliquée sur des molécules
dans un milieu liquide : molécule à 7 spins conçue
et fabriquée par les chimistes (noyau de 5 atomes de fluor
et 2 atomes de carbone) pouvant interagir avec les autres comme
des bits quantiques, et programmés par des pulsations d'ondes
radio.
Identifier la factorisation grâce à l'algorithme
de Shor est revenu à contrôler un milliard de milliard
de ces molécules.
Rappelons
qu'Isaac Chuang avait déjà réalisé
en 1998 un premier ordinateur quantique à 2 qbits, dans
un dé à coudre de chloroforme, pour rechercher
les diverses périodicités d'une fonction. Avec
2qbits, il a pu aussi mettre en oeuvre l'algorithme de Lov Grover
(voir plus bas, corps de l'article) et retrouver une donnée
parmi quatre en une seule étape. L'année suivante,
il passe à l'ordinateur à 3 qbits, dans une base
à 8 éléments. Enfin, en 2000, c'est la
réalisation d'un ordinateur à 5 qbits en utilisant
les 5 atomes de fluor d'une molécule complexe spécialement
conçue. Le système permet en une seule étape
de trouver la bonne combinaison parmi deux éléments,
alors qu'il en faut jusqu'à 4 dans une approche traditionnelle
(2 des 5 qbits servant dans la recherche de la solution, les
trois autres au calcul du résultat).
La lecture par utilisation de la résonance
magnétique est une des méthodes. Il existe d'autres
approches, par exemple celle des "pièges à
ions", faisant également appel à un milieu
fluide (notamment étudiée aux Etats-Unis et en Autriche).
Cela dit, certains chercheurs pensent qu'il sera désormais
très difficile de développer et de synthétiser
des molécules dotées d'un nombre de qbits supérieur
à sept. Chuang lui-même, pourtant optimiste, n'imagine
pas pouvoir aller beaucoup plus loin que 10 à 20 qbits
avec son système parce que les signaux magnétiques
qui mesurent l'orientation des spins et déterminent sa
valeur (1, 0 ou les deux), deviennent de plus en plus faibles
au fur et à mesure que le nombre de qbits augmentent. C'est
pour cela que d'autres scientifiques - tel Colin Williams du Jet
Propulsion Laboratory de la Nasa - préconise de se concentrer
sur les voies dites "solid state" en tablant sur des
qbits fixés sur des substrats solides ou sur des photons
prisonniers dans des cavités optiques. Les systèmes
étudiés (y compris par IBM) vont des spins d'électrons
confinés dans des nanostructures semi-conductrices, aux
spins de noyaux associés avec des impuretés mono-atomiques
dans un semi-conducteur, en passant par les flux électroniques
ou magnétiques à travers des super-conducteurs.
Alors, un premier prototype d'ordinateur quantique "solid
state" d'ici 10 ans ?
NB
: A côté de l'ordinateur quantique, mentionnons aussi
un nouveau paradigme qui pourrait s'imposer à terme
comme une véritable révolution : l'avènement
du calcul biomoléculaire via l'ordinateur à
ADN.
|
Mais la particule isolée peut, comme l'enseigne
la mécanique quantique, se trouver dans deux états à
la fois. C'est ce que l'on appelle l'état de superposition cohérente.
Si on veut s'en servir comme unité de représentation de
l'information (bit) elle peut donc présenter simultanément
l'état 1 et l'état 0. L'ordinateur quantique calcule ainsi
en manipulant des bits pouvant prendre soit la valeur 1, soit la valeur
0, soit la superposition 1 et 0. Avec deux bits, un ordinateur classique
peut représenter un des 4 nombres traduits en binaire par 00, 11,
01 ou 10. L'ordinateur quantique, lui, peut représenter simultanément
ces 4 nombres. Trois qbits, de même, pourront représenter
simultanément 8 nombres, au lieu de 1 nombre à la fois.
La suite en proportion, chaque nouveau qbit ajouté aux autres doublant
la quantité de nombres représentés par la séquence:
quatre qbits représentent 16 nombres, cinq qbits 32 nombres…
dix qbits 1.024 nombres (au lieu de 1, répétons-le, dans
un calculateur classique). N qbits peuvent mémoriser 2 puissance
N nombres. Il en résulte que si on utilise trois qbits comme donnée
d'entrée en vue d'un calcul (diviser par 2 ou extraire la racine
carrée), comme ils représentent 8 nombres, ils feront 8
calculs à la fois chaque fois que l'on changera l'état d'un
des bits. L'ordinateur quantique est donc d'abord un calculateur massivement
parallèle. Avec 13 atomes (ce qui n'est pas envisageable pour le
moment), il atteindrait la puissance de calcul en parallèle de
l'ordinateur Blue Mountain évoqué ci-dessus.
Un ordinateur quantique peut utiliser n'importe quelle particule susceptible
d'avoir deux états en superposition. Des ordinateurs quantiques
peuvent être construits à partir d'atomes qui sont à
la fois excités et non excités au même moment. Ils
peuvent être construits à partir de photons de lumière
qui sont à deux endroits simultanément. Ils peuvent être
construits à partir de protons et de neutrons ayant un spin soit
positif soit négatif ou les deux en même temps. Une molécule
peut contenir plusieurs millions de protons et de neutrons. Elle peut
donc, théoriquement, être utilisée comme ordinateur
quantique doté de plusieurs millions de qbits. Les capacités
potentielles de calcul correspondraient, avec un ordinateur classique,
à des durées de plusieurs fois l'âge de l'univers.
On imagine ainsi le gain de temps calcul et d'utilisation mémoire
à laquelle peut conduire cette nouvelle technologie. Mais elle
promet aussi beaucoup plus : les vrais progrès viendront aussi
de nouveaux algorithmes qui vont permettre de résoudre des problèmes
jusqu'alors inaccessibles pour l'informatique classique
La course à la conservation de l'état de superposition
Il y a donc un intérêt stratégique majeur à
maîtriser cette puissance, sachant que les nombres et les calculs
sont aujourd'hui à la source de toute connaissance et de toute
action sur le monde. De nombreux laboratoires se sont donc mis en piste.
Mais une énorme difficulté a jusqu'ici arrêté
les chercheurs : la difficulté de maintenir en état de superposition
un ensemble de plus de 1 particule. La localisation ou l'impulsion d'une
particule quantique en état de superposition ne peuvent être
définies que par une probabilité statistique découlant
elle-même de la fonction d'onde de la particule. Pour connaître
exactement ces valeurs, il faut faire interférer la particule avec
un instrument, comportant par définition une grande quantité
d'atomes. Mais alors, la fonction d'onde s'effondre et l'observateur n'obtient
qu'une seule des deux valeurs, l'autre étant définitivement
perdue, en application du principe d'indétermination. C'est ce
que l'on appelle aussi le phénomène de la décohérence.
Pour qu'un ou plusieurs qbits conservent leur caractère quantique,
et puissent donc travailler en état de superposition, il faut les
isoler de toute matière ou énergie avec lesquels ils interféreraient
- ce qui paraissait impossible ou très difficile dès que
le nombre de qbits dépassait deux ou trois. Aujourd'hui cependant,
en utilisant diverses techniques, un certain nombre de laboratoires ont
annoncé (comme un grand succès célébré
unanimement par la communauté des physiciens) avoir maintenu à
l'état quantique de courtes séquences de bits (4 à
7) et pour des durées de temps suffisantes à la réalisation
de quelques opérations.
L'avenir de l'ordinateur quantique repose donc sur les technologies qui
seront utilisées pour générer et maintenir en état
de superposition cohérente des chaînes de bits de plus en
plus longues. La démarche consiste à réaliser d'abord
une porte logique quantique (ou système microscopique), généralement
de 2 qbits, capable de réaliser une opération quantique
élémentaire dans une longueur de temps donnée. Les
physiciens ont depuis longtemps réussi à maintenir en état
de superposition un atome ou un photon isolé. Mais si on veut créer
des circuits avec ces portes, en les ajoutant les unes aux autres, les
risques de décohérence augmentent rapidement, du fait de
l'interaction avec les atomes de l'environnement. L'information utile
se trouve donc dissipée. Il faut donc réaliser des systèmes
microscopiques ou les qbits interagissent avec eux-mêmes et non
avec ceux de l'environnement. C'est là l'enjeu essentiel de la
course à l'ordinateur quantique, engagée depuis une dizaine
d'années dans les principaux pays du monde. Différents substrats
et différentes méthodes de détection (par exemple
la résonance magnétique nucléaire) sont actuellement
expérimentés.
Mais une autre difficulté devra être résolue. Il s'agit
des modalités de la programmation d'un ordinateur quantique. On
comprend bien que l'on ne puisse utiliser une programmation classique
pas à pas. Il faut définir de nouveaux algorithmes qui exploitent
un état de superposition pouvant contenir un nombre exponentiel
de termes différents. Ainsi une instruction pourra être de
la forme suivante : "prendre la superposition de tous les nombres
résultant de l'opération précédente".
De telles instructions permettent de programmer la résolution d'un
problème de factorisation (écrire une somme sous forme d'un
produits de facteurs), qui est encore actuellement considéré
comme le domaine d'excellence de l'ordinateur quantique. Différents
langages de programmation ont été réalisés
avant même que des ordinateurs quantiques opérationnels aient
été réalisés. Citons par exemple l'algorithme
de Shor, proposé en 1994 par le chercheur d'ATT Peter Shor, qui
met à profit les propriétés des qbits pour factoriser
de très grands nombres dans un temps “polynomial”(1)
(c'est sur cet algorithme que s'est appuyé Isaac Chuang d'IBM
pour factoriser le nombre 15 dans un véritable ordinateur quantique
à 7 qbits [voir encadré ci-dessus] Citons aussi, Lov Grover
(chercheur au Bell Labs), qui dans un autre domaine a publié en
1996 un algorithme quantique permettant la recherche d'un élément
dans un ensemble de n objets beaucoup plus rapidement que par les méthodes
classiques (application potentielle riche de promesses en ce qui concerne
la recherche dans les bases de données). Isaac Chuang l'a d'ailleurs
démontré pratiquement en 1999 dans son ordinateur quantique
à 2 qbits.
Toujours dans le cadre des difficultés, insistons sur le fait qu'avec
l'ordinateur quantique, le résultat final d'un calcul n'étant
déterminé que par des lois de probabilités, un calcul
peut a priori donner n'importe quel résultat. Il faut donc disposer
d'algorithmes qui permettent d'augmenter la probabilité que le
système "décohère" dans l'état correspondant
à la bonne réponse, sachant que lorsqu'on regarde un résultat
dans un registre quantique (réseaux de qbits), tous les autres
états disparaissent...
Qui a besoin de l'ordinateur quantique ?
Les scientifiques reconnaissent qu'on est encore bien
loin du but : produire un ordinateur quantique de grande puissance et
manipulable comme un micro-ordinateur. Ils comparent la situation actuelle
de la recherche à celle ou se trouvait la connaissance de l'atome
quand Marie Curie étudiait la désintégration du radium.
Cependant, comme dans tous les domaines, les progrès seront d'autant
plus rapides que les recherches disposeront de plus de moyens. Pour cela,
il faut que les décideurs institutionnels se persuadent de l'intérêt
d'un tel ordinateur.
On retrouve dans ce domaine le même phénomène qui
a marqué la prise en considération de la fusion nucléaire
destinée à produire de l'énergie industrielle. Pendant
des années, les réacteurs expérimentaux ont vécu
dans une certaine indifférence générale. Puis subitement,
à la suite de l'intérêt manifesté par les Etats-Unis
dans une ambiance de compétition avec l'Europe et le reste du monde
pour la maîtrise de cette énergie du futur, le programme
ITER s’est emballé.
Une question d'ordre stratégique est désormais posée
non pas aux chercheurs mais aux autorités gouvernementales qui
financent les recherches fondamentales en matière de physique quantique:
convient-il de laisser les recherches sur l'ordinateur quantique se poursuivre
dans un grand nombre de laboratoires, au rythme nécessairement
lent que suppose l'expérimentation de techniques difficiles et
souvent différentes, alors que les hommes et les crédits
y affectés sont rares ? Faut-il au contraire changer de vitesse
? Si oui, comment ?
On ne s'étonnera pas de nous voir recommander ce dernier choix.
Il faut bien voir que les industriels de l'informatique qui les premiers
mettront sur le marché un ordinateur quantique performant prendront
sur leurs concurrents une avance industrielle et commerciale considérable.
C'est pourquoi chez IBM, les recherches sur le sujet bénéficient
de moyens importants (voir les publications du centre de recherche IBM
d'Almaden consacrées à la computation quantique http://www.almaden.ibm.com/st/quantum_information/index.shtml).
Il en est de même concernant les moyens importants dédiés
par Microsoft aux recherches concernant l'ordinateur topologique.
Mais les industriels informatiques ne sont pas seuls en cause. Dans un
monde ou les technologies sont aussi et surtout de souveraineté,
les pays qui disposeront en premier d'une industrie du calcul quantique
compétitive en bénéficieront pour maintenir ou accroître
leur influence sur le reste du monde. C'est ce qui, depuis 50 ans, s'est
produit avec l'informatique classique, puis avec l'Internet. Les Etats-Unis
ayant perçu l'enjeu de ces outils ont encouragé leurs laboratoires
de recherche et leurs entreprises à s'en donner la maîtrise
technologique et à en généraliser l'usage à
leur profit, bien avant les concurrents. Chacun sait aujourd'hui que la
capacité de la science et de l'industrie américaine à
s'appuyer sur des réseaux de très grands calculateurs constitue
l'un des principaux moyens leur permettant d'assurer leur suprématie.
L'histoire risque de se répéter dans le domaine des calculateurs
quantiques, comme sans doute dans celui des calculateurs à ADN
(non étudiés ici) si ces derniers voient le jour avant ceux-là.
D'ores et déjà les perspectives offertes par les calculateurs
quantiques sont très attrayantes, dans les domaines de la cryptographie,
de la recherche en base de données avec multiples entrées
et, bien évidemment aussi en matière de calcul numérique,
calcul dont les applications seront de plus en plus importantes. Plus
généralement, toutes les modélisations supposant
des calculs massivement parallèles, dans le domaine militaire,
en bio-informatique, en économie et surtout en physique quantique
elle-même (gravitation quantique), comme en cosmologie, pourront
enregistrer des progrès d'efficacité considérable
avec ces ordinateurs révolutionnaires. On peut imaginer aussi qu'implanter
de petits calculateurs quantiques dans des robots autonomes devrait accroître
sensiblement leurs capacités d'auto-adaptation (des chercheurs
en intelligence artificielle distribuée, tel Alain Cardon, voudraient
par exemple étudier le comportement de systèmes multi-agents
adaptatifs constitués de qbits).
Ajoutons qu'apprendre à manipuler couramment les particules en
état de superposition cohérente constitue le sine qua non
de toutes les applications possibles de la physique quantique.
En Europe, les laboratoires travaillant sur l'ordinateur quantique sont
relativement nombreux, comme le montre la carte établie par le
Centre for Quantum Computation britannique(2) :
http://www.qubit.org/phpscripts/places.php?cat=areaname&value=europe.
Mais ils sont dispersés, abordent souvent des domaines très
spécialisés qu'il sera difficile de mettre en synergie dans
un produit final. De façon plus grave, ils ne sont certainement
pas considérés comme prioritaires dans l'allocation des
ressources budgétaires. L'Europe va-t-elle perdre la bataille de
l'ordinateur quantique comme elle a perdu celle de l'ordinateur classique
?
Vu l'état actuel des connaissances, il serait contre-productif
de vouloir regrouper plusieurs laboratoires dans un programme unitaire.
Mais ceci ne veut pas dire que les Pouvoirs Publics ne devraient pas s'intéresser
au sujet. Il faudrait que des projets précis soient encouragés
au sein des programmes cadres de l'Union européenne ou dans des
projets conjoints entre plusieurs pays, avec des méthodes d'évaluation
et de diffusion des résultats communes. Pour cela s'affirme constamment
le besoin d'engager un grand travail de sensibilisation.
Rappellerons au lecteur qu’un nombre croissant de physiciens, le
plus représentatif étant Seth Lloyd, présenté
dans le chapitre 1 de ce livre, considère que l’univers fonctionnerait
fondamentalement comme un immense ordinateur quantique, ce qui expliquerait
ses performances passées et futures. On voit que la question de
l’ordinateur quantique prendra de plus en plus d’importance
dans les années à venir, au plan tant conceptuel que pratique.
Nous pourrions aller jusqu’à suggérer que ce sera
l’enjeu scientifique majeur du XXe siècle. Il serait peut-être
utile que les jeunes étudiants en sciences, candidats à
de futurs prix Nobel, y réfléchissent.
*
Co-rédacteur en chef, avec l'auteur, du site www.automatesintelligents.com
(1)
: Façon mathématiques de dire que l'accroissement de la
taille des clefs de cryptage n'est plus un obstacle insurmontable, sachant
que la factorisation des grands nombres est l'un des principes de base
du décryptage. En d'autres termes, ce qui prendrait plusieurs milliards
d'années de calcul à l'ordinateur classique actuel le plus
puissant au monde pour trouver les diviseurs d'un nombre de 300 chiffres
en les essayant laborieusement les uns après les autres, ne nécessiterait
que 30 heures de calcul avec un ordinateur quantique.
(2)
: Il est significatif que l'équivalent d'un tel Centre n'existe
pas en France, ce qui montre bien le manque d'intérêt des
décideurs et de l'opinion pour cette question. Les chercheurs existant
sont bien isolés et bien peu mis en valeur.
Pour en savoir plus :
Center for
Quantum Computation :
http://www.qubit.org/
Groupe de
recherche 2285 "Information et communication quantique" :
http://www-lsp.ujf-grenoble.fr/vie_scientifique/gdr/info_quantique/labosGDR.html
Programme
européen "Quantum Information Processing & Communication"
:
http://www.cordis.lu/ist/fet/qipc.htm
Un ordinateur quantique commercialisé dès 2008 ?
http://www.editions-bayol.com/PMF/ordi_quantique2.php
|