Les Editions Jean Paul Bayol
Publications
Contact
Décohérences
L'Esprit de l'escalier
Avec un H
PMF-annexes
L'Europe-annexes
Diffusion-Distribution

 

Pour un principe matérialiste fort

Compléments du livre
"Pour un principe matérialiste fort"

 

Retour au sommaire

Retour au sommaire

 

Nouvelles réflexions sur l'émergence

 

Ce texte complète le chapitre I, section 2 du livre. Février 2007

Dans son numéro 405 du mois de janvier 2007, la revue La Recherche présente un dossier intitulé "Emergence, la théorie qui bouscule la physique". Celui-ci comporte, entre autres, un article de Michel Bitbol et une interview de Robert Laughlin. Pour la petite histoire des idées, rappelons que notre Revue avait consacré dès avril 2005 un long article de présentation au livre fondateur de ce dernier, A Different Universe (Basic books, 2005) http://www.automatesintelligents.com/biblionet/2005/juin/laughlin.html.

L'article de Michel Bitbol présente un bon résumé de la problématique de l'émergence, considérée comme une alternative au réductionnisme. L'auteur s'y rallie sans ambiguïté à la thèse de Laughlin. Il nous semble cependant qu'il ne fait pas assez le lien avec la question du constructivisme telle qu'elle est abordée dans l'œuvre de Mioara Mugur-Schächter, souvent citée dans cette revue. Autrement dit, Michel Bitbol, qui pourtant connaît bien cette dernière, ne semble pas faire le rapprochement entre la façon dont un observateur « macroscopique » qualifie d'émergent un phénomène dont il ne connaît pas les hypothétiques lois profondes, (par exemple la superfluidité ou plus simplement la transformation de l'eau en glace) et celle dont un observateur du monde quantique qualifie les micro-états quantiques sur lesquels il a décidé d'expérimenter. Reprenons rapidement cette question, que nous avions abordée en détail dans notre article précité d'avril 2005.

Résumé de la présentation de Michel Bitbol

Michel Bitbol rappelle d'abord la thèse de Laughlin selon laquelle toutes les « lois de la nature » sont « émergentes ». A tous les niveaux d'observation que ce soit, physique, biologie, sociologie, etc. ces lois résultent d'un comportement d'ensemble des parties ou entités observées (atomes, cellules vivantes, individus et groupes sociaux…) et sont indépendantes des lois qui régissent les comportements de ces parties ou entités prises unes à unes. Ceci, encore une fois, à tous les niveaux d'observation que ce soit, y compris aux niveaux que nous estimons être les plus élémentaires. Il est donc vain de faire appel au réductionnisme pour expliquer les lois de la nature. Le réductionnisme en l'espèce consisterait, loi par loi, à rechercher celle qui régirait les entités hiérarchiquement inférieures afin de s'en servir pour trouver la loi régissant le fonctionnement des entités supérieures. Ainsi, pour le réductionnisme, le comportement des cellules pourrait être expliqué par celui des atomes dont elles sont faites, de même que celui des atomes pourrait l'être par celui des particules élémentaires qui les composent.

Depuis longtemps, les scientifiques avaient constaté qu'ils ne pouvaient pas utiliser l'approche réductionniste pour expliquer et prédire, mais ils avaient longtemps attribué cela à l'insuffisance de leurs instruments ou de leurs outils mathématiques, ceux-ci ne leur permettant pas de décrire, autrement que de façon probabiliste, le comportement des parties constituant un tout. Si bien que beaucoup d'entre eux ont mis leurs espoirs dans la physique des hautes énergies pour faire apparaître une loi ultime. Mais cette recherche de plus en plus coûteuse n'a pas abouti à ce jour. D'où le succès des premières théories émergentistes, dont Michel Bitbol présente l'historique dans la première moitié de son article. Il montre que, dans tous les domaines, l'hypothèse pourtant théoriquement irréfutable selon laquelle les phénomènes complexes résultent nécessairement de l'interaction entre les parties s'est révélée n'avoir qu'une portée philosophique puisqu'il n'était pas possible d'en tirer des conclusions utilisables en ce qui concernait la formulation de prédictions conformes aux observations.

Ainsi les phénomènes « complexes » caractérisant le comportement d'un Tout, par exemple celui d'une cellule vivante, ne peuvent pas être déduit de ce que l'on sait des comportements des atomes constituant cette cellule, à moins de les agréger en grandes quantités. Le biologiste est donc obligé de considérer que des lois nouvelles, que l'on dira émergentes, sont à l'œuvre dans la détermination des comportements complexes de la cellule. Toute sa science consistera à déterminer ces lois, le plus précisément possible, en fonction des instruments d'observation et des outils mathématiques dont il dispose. Les lois ne seront évidemment validées que si elles permettent de prédire des évènements vérifiables par l'expérience.

L'avènement de la mécanique quantique avait fait supposer que les diverses lois identifiées dans les différentes sciences s'intéressant aux niveaux supérieurs d'organisation de la matière, thermodynamique, mécanique classique, biologie, etc., dérivaient des lois quantiques. Mais celles-ci sont caractérisées par l'indéterminisme. On ne peut évaluer que les probabilités des valeurs des observables. On en a donc conclu qu'il n'était pas possible, jusqu'à ce jour, d'identifier une loi élémentaire permettant d'expliquer les lois émergentes. Cet indéterminisme, qui n'est pas remis en cause aujourd'hui, se répercute tout au long de l'échelle des complexités. Une loi émergente de niveau supérieure, celle concernant la vie, par exemple, ne peut être expliquée par les lois émergentes de niveau inférieur, celles concernant l'agencement des atomes et molécules par exemple, puisque celles-ci à leur tour ne sont pas des entités déterministes. On ne peut que constater l'existence des lois émergentes de tous niveaux. Selon le terme de Michel Bitbol, celles-ci sont «  multiréalisables » ou « survenantes ».

Cette conviction était apparue, puis s‘était largement répandue, bien avant Laughlin. Quel est donc l'apport de ce dernier en matière d'émergence ? D'abord, pour lui, il s'agit d'une hypothèse qu'il convient de généraliser sans exceptions. Mais il a fait davantage. Il a montré, en créant le concept de « protection », que les lois émergentes restent stables même si leurs bases varient, c'est-à-dire qu'elles sont indépendantes non de ce qui se passe au niveau sous-jacent, mais du détail de ce qui s'y passe. Cela n'a rien de surprenant si l'on admet qu'elles résultent d'une moyenne de processus désordonnés dans une certaine catégorie d'objets matériels. Mais elles prennent aussi des formes semblables, analogues, quels que soient les substrats, matière macroscopique, matière condensée ou « matière fondamentale ». Ceci prouve le caractère universel de l'émergence. Dans son article, Michel Bitbol justifie le point de vue de Laughlin par des considérations qui éloigneront sans doute le lecteur non averti, concernant la théorie des champs et la renormalisation. Nous préférons, même s'il n'est pas très correct de se citer soi-même, reprendre ici ce que nous en disions dans l'article que nous avons consacré au livre de Robert Laughlin :

Un mystère bien protégé

« Si l'on considère qu'il est fondamental de comprendre comment fonctionnent les lois de l'organisation permettant à la complexité d'émerger, il faudrait rendre prioritaire l'étude de ces lois. Mais si cela n'a pas encore été fait, c'est pour différentes raisons que Robert Laughlin s'efforce d'aborder dans la suite de son livre. Un mécanisme qu'il appelle la protection permet à un système complexe de conserver un fonctionnement homéostatique même si ses composants tombent en panne ou manifestent des incohérences locales. Il s'agit d'une sorte d'aptitude à l'autoréparation qui est bien connue dans le vivant mais qui existe aussi dans les systèmes physiques naturels, y compris les plus élémentaires, comme la conservation de la stabilité de phase dans un métal ou un liquide. Mais ce mécanisme de protection présente un inconvénient pour l'observateur (The dark side of protection), c'est qu'il dissimule ce qui se passe exactement aux niveaux atomiques et sub-atomiques. Il faudrait pouvoir observer la matière à ces niveaux. Mais, comme on se trouve alors soumis aux règles de la physique quantique, l'observation détruit généralement ou transforme l'entité observée. On pourrait compter sur un phénomène général nommé l'invariance d'échelle pour extrapoler à partir de l'observation de petits échantillons comment pourrait se manifester l'émergence de nouvelles propriétés dans des échantillons plus grands (renormalisation). Mais les petits échantillons peuvent évoluer de multiples façons et rien ne garantit que cette évolution aboutira au type de complexité que l'on voudra expliciter dans un échantillon plus grand. Autrement dit, la renormalisation ne garantit pas la conservation du caractère étudié en cas de changement d'échelle. On parle alors de non-pertinence (irrelevance), ce qui signifie « condamné par les principes d'émergence à être trop petit pour être mesurable ».

Il est particulièrement pénalisant de ne pas pouvoir observer ce qui se passe dans les moments critiques correspondant aux transitions de phases, lorsque le système jusque là bien équilibré à la frontière de deux phases semble avoir du mal à prendre la décision de se réorganiser. Il apparaît alors un facteur causal qui grandit progressivement au point de devenir observable ou pertinent (relevant) et qui provoque le changement d'état. La protection initiale disparaît alors. Mais ce facteur effectivement causal est généralement dissimulé par de nombreux autres facteurs qui ne le sont pas. Ceci rend l'observation très difficile. Lorsque la protection devient instable, phase critique pour lui, l'observateur peut prendre pour un phénomène pertinent ce qui ne l'est pas et ne pas apercevoir la vraie cause du changement d'état qu'il voudrait mieux comprendre, afin de l'utiliser ou de mieux se prémunir contre ses effets. » .

Finalement, quelles conclusions Michel Bitbol nous incite-t-il à retenir de l'exposé qu'il fait de l'opposition entre réductionnisme et émergence ? Elles sont claires. Ou bien l'on continue à espérer que l'on pourra un jour édifier une théorie unifiée fondamentale exprimant les lois ultimes de la nature, aujourd'hui théorie des cordes ou des supercordes, à la poursuite de laquelle on engloutira beaucoup d'argent sans guère progresser(1). Ou bien l'on admet qu'il n'existe pas de niveau fondamental à atteindre, ni de lois ultimes à formuler, ni même d'éléments au sens strict. C'est dans ce deuxième camp qu'il se range explicitement. Mais il précise que cette position n'a pas pour effet d'annuler l'intérêt des approches réductionnistes. Il est toujours possible d'unifier un certain nombre de lois en les considérant comme portées par une même base. Mais il ne faut plus se préoccuper alors du caractère ultime ou non de cette base (en se posant la question de son « existence »). Seule se pose une question de méthode : quelle base intermédiaire remplit le mieux sa fonction unificatrice ? Ainsi la théorie de l'émergence présente l'intérêt philosophique de transformer les questions ontologiques, relatives à l'existence ou non de lois fondamentales, en questions méthodologiques. On renonce à savoir ce qu'est la nature dans l'absolu. On s'intéresse seulement à ce qu'elle apparaît être ici et maintenant en fonction des recherches que l'on mène. Dans ce cas, ces recherches peuvent et doivent être poursuivies, à quelque niveau de complexité que l'on se place, aussi longtemps qu'il est possible de le faire car elles feront toujours apparaître du nouveau.

L'interview de Robert Laughlin, qui fait suite à l'article de Michel Bitbol, reprend les mêmes idées. Il rappelle que dans toutes les sciences, l'approche est « phénoménologique ». Ce qui est observé expérimentalement est utilisé pour reconstituer des lois physiques dites fondamentales, résultant davantage d'un travail d'observation et d'analyse que de prédiction. Ainsi l'univers ne serait que le produit d'évènements contingents liés à des modes d'auto-organisation de la matière. Pour Laughlin, il est tout autant impossible d'écrire les équations qui prédiraient la structure d'un grain de pop corn afin de simuler et prédire son explosion que celles intéressant un phénomène tel que le Big Bang.

Observations

Nous n'avons évidemment rien à reprendre à ce qui précède. Pour des commentaires plus détaillés, nous renverrons le lecteur à notre article de 2005. Tout au plus pourrions-nous faire ici quelques rapides observations.

La première concerne la possibilité de mathématiser les lois de la nature, fussent-elles émergentes. Il est certain que l'on ne peut mathématiser que ce que l'on peut observer. Stephen Wolfram montre que certains automates cellulaires peuvent évoluer pour donner des structures prodigieusement complexes à partir d'éléments simples sans qu'il soit possible d'observer de règles générales permettant de prédire cette évolution. Il n'est donc pas question d'élaborer une loi mathématique décrivant de tels phénomènes. D'une façon plus générale, comme la plupart des changements brutaux d'état, tel la transformation de l'eau liquide en glace, se produisent sans qu'il soit possible, en conséquence du « mécanisme de protection », de décrire exactement ce qui se passe, l'espoir de mathématiser de telles transitions doit être abandonné. Au contraire, à l'intérieur d'un niveau donné de complexité, il devient généralement possible d'observer des régularités et de donner à ces observations une forme mathématique. Les expressions mathématiques seront plus ou moins rigoureuses selon le degré de précision avec laquelle on peut observer les phénomènes, cependant elles joueront dans tous les cas un rôle utile. Si ce n'était pas le cas d'ailleurs, les mathématiques n'auraient pas été inventées et ne seraient jamais utilisées. Mais la description mathématique d'un système vivant sera nécessairement moins précise que celle d'un système mécanique ou planétaire.

Il résulte aussi de ce qui précède qu'aucune loi mathématique exprimant ce que l'on appelle des constantes fondamentales de l'univers ne pourra résister à des expériences la mettant en défaut. C'est le cas de la vitesse de la lumière. Robert Laughlin insiste sur le fait que cette vitesse, aussi fondamentale puisse-t-elle sembler aujourd'hui, est une émergence. S'il apparaît des endroits de l'univers où l'observation ne vérifiait pas la loi, il faudrait réviser la loi. Une autre représentation de la vitesse de la lumière émergerait. Encore faudrait-il que les expérimentateurs aient l'idée de mettre en défaut la loi et d'observer « les yeux ouverts » des phénomènes susceptibles de le faire. D'où l'insistance que met Laughlin à demander aux scientifiques de ne pas se laisser enfermer dans les lois admises à leur époque, comme s'il s'agissait de lois décrivant un prétendu univers fondamental. Il n'y a pas pour lui d'univers fondamental, il n'y a que des émergences, l'une pouvant chasser l'autre.

Une deuxième observation concerne plus généralement le statut des lois scientifiques, qu'elles prennent une forme mathématique ou non. Pour Robert Laughlin, toutes les lois sont émergentes, y compris celles décrivant ce que l'on appelle les constantes fondamentales de l'univers. Soit, mais qu'est-ce à dire ? Qu'est-ce qui émerge, la loi ou le phénomène qu'elle est censée décrire. Pour les émergentistes, ce n'est pas le phénomène qui émerge, le phénomène a toujours été là. L'émergence se produit au niveau de l'observateur, qui prend conscience de quelque chose qui n'était pas jusqu'alors entré dans ses représentations. Mais cette prise de conscience par l'observateur ne correspond pas à une véritable observation, laquelle supposerait qu'un phénomène nouveau, observable et effectivement observé, soit apparu dans la nature. Elle correspond à un changement brutal dans la construction symbolique du monde que l'observateur avait généré en interagissant avec ce même monde. L'observateur, qu'il vaudrait mieux désigner par le terme d'observateur/acteur, comme le fait Mioara Mugur-Schächter, se trouve modifié en permanence par le fait qu'il interagit avec un milieu dont il est d'ailleurs partie. Ces modifications le conduisent à se représenter le monde autrement et ces nouvelles représentations prennent pour lui l'aspect d'émergences. A la question donc de savoir qui émerge quand on parle d'émergence, nous pourrions répondre selon cette façon de voir que c'est un nouvel état de l'observateur/acteur. Autrement dit, cet observateur/acteur se construit en permanence, d'une façon qu'il est obligé de constater sans pouvoir la prévoir et qui le surprend toujours car il ne peut pas observer de l'extérieur son processus d'auto-construction.

Nous terminerons par une troisième observation concernant la question des processus à l'œuvre dans les mécanismes d'émergence. On admet qu'ils sont identiques ou très voisins, quels que soient les domaines d'émergence. On les associe généralement aux mécanismes d'auto-complexification. Mais ce mot ne veut pas dire grand-chose. Pour les théoriciens de la théorie constructale, ces lois relèvent, en gros, de la thermo-dynamique c'est-à-dire de l'exploitation aussi économique que possible de l'énergie. Peut-être. Mais là encore, commencer à raisonner de cette façon conduit à supposer qu'il existe des lois en soi, relevant de la thermodynamique, lesquelles agissent indépendamment de l'observateur et que celui-ci est obligé de décrypter puis d'appliquer pour comprendre le monde. Si nous estimons au contraire que l'émergence résulte de l'interaction d'un observateur/acteur avec un monde non défini a priori, le processus d'émergence à étudier concernera la façon dont l'observateur/acteur intégrera de nouvelles constructions, résultant de son interaction avec le milieu, dans l'ensemble de celles résultant de ses activités antérieures.

Comme il n'est pas envisageable que n'importe quelle « observation » puisse être validée et incluse dans le corpus des constructions antérieures, il faut élucider les processus par lesquelles de nouvelles constructions seront effectivement validées et d'autres rejetées. On peut admettre que ces processus seront identiques ou voisins, à l'intérieur de grandes catégories d'observateurs/acteurs, humains, animaux ou végétaux en ce qui concerne les êtres vivants. Comme nous l'indiquions, il nous semble que le travail fondamental de Mioara Mugur-Schächter(2) donne des pistes très importantes pour expliciter ces processus, qui relèvent du constructivisme. Mais beaucoup de points nécessiteraient encore d'être explicités. Ceci admis, il n'y a pas de raison de penser que l'univers en soi imposera des limites absolues à la démarche constructiviste. Tout laisse penser au contraire que l'univers en soi s'il existe, sera très tolérant. Il n'imposera pas des constantes fondamentales ou autres frontières indépassables. Les entités auto-complexificatrices ou auto-constructives auront toute liberté, en fonction des acquis de leurs auto-constructions précédentes, individuelles ou collectives, pour approfondir sans cesse ce qu'elles appelleront leurs connaissances, c'est-à-dire leur nature même. Autrement dit, de nouvelles lois émergentes pourront sans cesse être mises en évidence. Mais ce ne seront pas des lois décrivant l'univers. Elles décriront l'état d'avancement de l'auto-construction définissant l'observateur/acteur, domaine par domaine. Dans cette optique, la nature, qu'elle soit représentée ou non par le monde quantique, se comportera effectivement comme un puits sans fond.

Faut-il alors continuer à engloutir des milliards dans des accélérateurs de particules géants, à la recherche d'une loi fondamentale qui marquerait l'existence d'un fond au-dessous duquel il ne sera plus possible de descendre, et dont l'on pourrait remonter triomphalement, comme l'imaginent les réductionnistes, pour comprendre les étages supérieurs, plutôt qu'étudier à moindres frais des phénomènes plus banaux tels que la superfluidité ? Disons dans l'optique de l'émergence, que de tels accélérateurs pourront provoquer des phénomènes inattendus et actuellement imprévisibles. Ceux-ci, à condition que l'on sache les voir, pourront faire apparaître de nouvelles lois émergentes et suggérer de nouvelles hypothèses. Mais en aucun cas, ils ne révèleront le fond. C'est bien ce qu'avait compris les physiciens des particules il y a trente ans quand ils parlaient d'un phénomène de boot-trap ou tire-bottes. Les expériences sur les particules de haute énergie en faisaient apparaître toujours de nouvelles, au désespoir des théoriciens. Rien n'a changé depuis semble-t-il.

Robert Laughlin utilise dans son interview l'oeuvre «Le Jardin de Monet, les Iris» comme l'illustration d'un phénomène complexe émergeant à partir d'objets élémentaires auxquels il n'est pas réductible. Ce tableau n'exprime pas l'émergence d'un jardin ni même d'une représentation de jardin. Il exprime l'émergence du Monet tel qu'il était au moment où il l'a peint, c'est- à--dire au stade qu'il avait atteint à ce moment précis de son processus d'auto-construction. Bien plus, il exprime aussi l'émergence de l'état qui est le nôtre quand nous percevons ce tableau. On pourrait imaginer que d'innombrables autres Monet auraient pu succéder au premier, par émergence, construisant d'innombrables autres tableaux, avec des millions d'amateurs d'art émergeant à la suite de ces divers Monet, sans que jamais l'univers « en soi », véritable puits sans fond en l'espèce, n'impose de limites au processus d'auto-construction pictural ainsi engagé. C'était peut-être d'ailleurs ainsi que Monet, avec ses célèbres suites, concevait intuitivement son art, c'est-à-dire son rapport au monde.


Notes

 

(1) Comme le déplore Lee Smolin dans son dernier livre «The Trouble with Physics».

(2) Mioara Mugur-Schächter, "Sur le tissage des connaissances" Hermès-Sciences 2006.

Voir http://www.automatesintelligents.com/biblionet/2006/sep/mms.html

 
 


Retour au sommaire