Mise à jour le 9 Juin 2014

                                                                                                                                                    

     

CONFÉRENCE de Rémy LESTIENNE, Physicien

 «Émergence : une limite au réductionnisme ? une porte ouverte au libre arbitre ?»

Organisée par la SAF

Dans ses locaux, 3 rue Beethoven, Paris XVI

 

Le Samedi 17 Mai 2014 à 15H00 
à l'occasion de la réunion de la Commission de Cosmologie.

 

Photos : JPM pour l'ambiance. (les photos avec plus de résolution peuvent m'être demandées directement)

Les photos des slides sont de la présentation de l'auteur. Voir les crédits des autres photos si nécessaire

(Le conférencier a eu la gentillesse de nous donner sa présentation complète (en pdf) elle est disponible sur le site de la commission et également disponible sur ma liaison ftp au téléchargement et s'appelle.    

http://www-cosmosaf.iap.fr/LestienneParis2014.pdf

elle est dans le dossier COSMOLOGIE SAF de la saison 2013-2014).

Ceux qui n'ont pas les mots de passe doivent me contacter avant.

Pour info les actualités cosmo présentées ce jour là sont aussi disponibles sur le site de la commission.

 

 

 

BREF COMPTE RENDU

 

 

 

 

 

 Rémy Lestienne est à la fois Physicien et Neurobiologiste.

 

 

 

 

Cette conférence a particulièrement favoriser la verve des participants, aussi je vais leur laisser la parole.

 

 

 

 

 

 

 

 

 

Notre ami Jean Pierre Treuil qui a pris beaucoup de notes, il nous fait part de ses commentaires que je reproduis en partie ici :

 

Lors de sa réunion du 17 mai 2014, la commission Cosmologie de la SAF recevait Rémy Lestienne. pour l'écouter sur la notion d'émergence. Directeur de Recherche (actuellement émérite) au CNRS, Rémy Lestienne a été successivement physicien puis neuro-biologiste. A coté de publications spécialisées, il est l'auteur de plusieurs ouvrages dans lesquels les thèmes de l'émergence, mais aussi du temps - temps physique, temps biologique, temps subjectif - occupent une place importante.

La SAF a rendu l'exposé de Rémy Lestienne accessible sur la toile. Mon propos est ici, non pas d'en faire un résumé exhaustif, mais d'en reprendre quelques points essentiels, en essayant de clarifier certaines interrogations. Avant d'entrer dans le sujet, je veux souligner l'intérêt que j'ai pris à cet exposé, par les références qui ont été données et l'accent porté sur des questions touchant à la nature de la Science.

 

Une introduction sous l'angle de l'histoire des sciences


La manière dont Lestienne a commencé son exposé a pu surprendre. Il l'a placé en effet d'emblée dans le cadre d'un débat de philosophie des Sciences, en parlant deréductionnisme et d'émergentisme, en retraçant brièvement l'histoire de ces deux notions, et en annonçant un parti-pris clair en faveur de la seconde.

Et de décrire un mouvement de balancier, alternant les faveurs sur l'une puis sur l'autre de ces conceptions de la manière dont on peut parvenir à comprendre (partiellement) notre univers : Lestienne a évoqué brièvement Aristote et une certaine tendance émergentiste, et Descartes, clairement (?) réductionniste. Puis il s'est attardé sur le mouvement des idées au XXème siècle, pour affirmer que le regain de faveur de l'émergentisme tirait en partie son origine des avancées des sciences physiques, et se trouvait renforcé par les recherches sur l'apparition de la Vie et les sciences du cerveau. Ces trois domaines scientifiques ont ensuite structuré son exposé.

Bien sûr, cette introduction s'est accompagnée d'une définition générale de l'émergence, comme apparition soudaine - dans l'Univers - de qualités nouvelles,  de propriétés non attendues, voire non explicables. Mais peut-être que devant un public tel que le nôtre, passer un moment sur un exemple concret et simple eut pu mieux faire percevoir les enjeux du débat et permettre une meilleure discussion. 

Le présent billet est centré sur la problématique de l’émergence en Physique, et sur ce que j’ai pu saisir de ses enjeux méthodologiques. Les autres domaines abordés par Lestienne feront l’objet du prochain billet. 

L'émergence en  Physique


L'émergence, dans sa manifestation la plus simple, me semble être l'apparition d'uneorganisation au sein d'une collectivité d'entités en interactions. Il est utile de rapporter ici la définition figurant dans la version anglaise de l'article Emergence de Wikipédia. Je cite : "a process whereby larger entities, patterns and regularities arise through interactions amogn smaller or simpler entities that themselves do not exhibit such properties"

 

 

Modèles d'Ising

Un exemple élémentaire d'un tel contexte est fourni par les "modèles d'Ising", élaborés à l’origine  dans le cadre de l’étude du ferromagnétisme, mais utilisés dans bien d’autres cadres ; ils ont été l’occasion, dans ma vie professionnelle, de me familiariser avec la question des rapports entre niveaux individuels et collectifs. C’est pourquoi, bien que non mentionnés par Lestienne dans son exposé, je les reprends ici pour entrer dans le débat et les reprendre ensuite dans la discussion.
 

 
De tels modèles mettent en oeuvre des systèmes composés d'éléments ou sites disposés en réseau régulier, en 1, 2 ou 3 dimensions, et s'orientant binairement (par exemple positivement ou négativement) en fonction de leurs voisins immédiats. Ces modèles font l'objet d'une abondante littérature en physique statistique, et se prêtent en informatique à des simulations aisées à programmer. L'interaction entre un élément du réseau et ses voisins consiste en une tendance à adopter l'orientation majoritaire observée dans ce voisinage ; cette tendance est contrariée par une agitation thermique, codée par un paramètre de température, poussant au contraire à changer aléatoirement d'orientation.
Différentes variantes existent, selon le nombre de dimensions, la taille du voisinage, le forçage temporel des transitions (simultanées ou survenant indépendamment les unes des autres). Les simulations - et parfois, nous le verrons, les analyses mathématiques - montrent pour certaines de ces variantes l'existence d'une température critique : en dessous de cette température, on observe une organisation du réseau, dans laquelle de vastes régions conservent au cours du temps une orientation majoritaire stable et massive : les éléments de ces régions gardent quasi-constamment cette orientation commune. Le franchissement de la température critique provoque une transition de phase du réseau. On peut consulter pour un exposé approfondi le cours de Michel Héritierdu Laboratoire de Physique des Solides de Paris-Sud

 

De l'individuel au collectif


 
Retenons donc, pour le moment, ceci : Les phénomènes émergents sont des phénomènesorganisationnels s'observant dans des collectivités (ou populations) rassemblant un grand nombre de constituants élémentaires (ou individus) ; ils sont le signe de l'existence, dans ces collectivités, d'une organisation particulière. Pour chacune de ces organisations ouétats organisationnels, l'attention se porte sur les points suivants :
La discussion sur l’émergence se concentre sur deux questions :
Une réponse entièrement positive à la première question fonde ce qu’on appelle leréductionnisme.  Dans une vision de la réalité dans laquelle les différents niveaux d’analyse forment une hiérarchie allant des plus simples (les niveaux inférieurs) aux plus complexes (les niveaux supérieurs), le réductionnisme affirme que les caractéristiques des comportements observés à un certain niveau déterminent de façon univoque celles observées au niveau immédiatement supérieur.
 
Une version plus faible de cette conviction affirme une relation plus lâche : la connaissance des comportements individuels et des lois d’interaction entre individus (le niveau inférieur) permet de prévoir une palette possible d’organisations et de comportements collectifs (le niveau supérieur) ; l’organisation et le comportement collectif effectivement observés est simplement l’une des possibilité de cette palette : l’apparition de telle organisation collective plutôt que de telle autre semble due alors au hasard, en tout cas à des facteurs inaccessibles à toute mesure. 
 
Une autre version faible consiste à admettre le principe de la dépendance : les comportements du  niveau collectif sont bien en principe une conséquence de ceux du niveau individuel, mais en pratique, dans nombre de cas, cette dépendance est inexploitable : elle ne peut servir à aucune prédiction. Et chaque niveau doit être étudié en lui même.
 
Une réponse négative radicale conteste - dans certains cas - la possibilité même de caractériser les comportements individuels, indépendamment des organisations collectives dont ces individus font parti. Niveau individuel et niveau collectif apparaissent alors comme soudés dans une boucle causale, sans que l’on puisse donner la priorité à l’un d’entre eux. Cette réponse conduit à affirmer que certains phénomènes collectifs relèvent d’une émergence «forte» - selon l’expression utilisée dans le texte de Lestienne, page 9 - irréductible à la seule analyse des composants ; elle souligne en conséquence, pour de tels phénomènes, le caractère vain de toute tentative réductionniste. Le seul objectif scientifique valide est de caractériser les différents types existants d’organisation collective, de caractériser pour chacun de ces types les comportements individuels associés, et de mettre en lumière la cohérence de ces associations.

 

Primauté de l'individuel ?


Cette formulation de la gradation entre réductionnisme et «émergentisme» demeure imprégnée d’une vision «classique» de la physique, en ce sens que l’objet collectif reste appréhendé comme un ensemble d’objets individuels séparables et localisables. De plus, ces objets individuels sont considérés comme préexistant aux diverses organisations dont ils peuvent être partie prenante : par exemple les mêmes molécules d’eau, objets individuels, selon les conditions de température et de pression,  vont s’organiser en vapeur, en eau liquide ou en glaces. 

La préexistence des objets individuels introduit une dissymétrie entre le niveau individuel et le niveau collectif, le premier apparaissant inévitablement, dans cette vision classique, comme plus fondamental. A mon sens, cette dissymétrie rend la  quatrième option (l’émergence forte) plus difficile à défendre. Mais la physique quantique, en introduisant de sérieuses réserves à la notion d’objet au niveau microscopique, apporte des éléments nouveaux. J’y reviendrai à propos des thèses de Robert B. Laughlin, cité par Lestienne. 
 

Retour sur les modèles d'Ising.


La simplicité des modèles d’Ising, du moins dans certaines variantes, permet un traitement mathématique exact. Ce traitement, à partir d’une formalisation des interactions entre sites et de la valeur de leurs paramètres, effectue le calcul de grandeurs caractérisant organisation et comportement collectifs, savoir : existence et valeur de la température critique, corrélation entre les orientations des sites selon la distance qui les séparent, voire taille moyenne des domaines d’orientation homogène.

Rappelons brièvement comment sont caractérisées interactions individuelles et organisation collective dans Ising : 
 


Le calcul de ces espérances mathématiques passe par celui de la distribution de probabilités de l’énergie totale, à l’aide d’une formule bien connue en physique statistique. Cette formule fait intervenir une fonction, dite fonction de répartition. Cette fonction se présente comme une somme de termes associés à chaque configuration possible du réseau, configurations qui diffèrent les unes des autres par l’orientation d’au moins un site.  


La formule exacte donnant la fonction de répartition d’Ising a pu être établie pour des réseaux linéaires et des réseaux à deux dimensions. Une fois cette formule obtenue, les grandeurs caractérisant l’organisation collective - et leur comportement en fonction de la température - se calculent très simplement. On montre ainsi, dans le cas linéaire, qu'il n’existe pas de température critique : aucune orientation privilégiée ne subsiste de façon stable, dès que la température n’est pas strictement nulle. Au contraire, dans le cas d’un réseau à deux dimensions, il existe bien une température critique et la relation, entre cette température et la force des interactions individuelles, est établie.

 

La simplicité des modèles d'Ising : une illusion ?


Au premier abord, les modèles d’Ising sont une illustration de la validité du réductionnisme :  propriétés d’un collectif calculables, et donc prévisibles, à partir d’une mise en équation des interactions entre membres de ce collectif.

Cette conclusion doit cependant être nuancée : 
 


Lorsque de tels calculs ne sont pas possibles, ou bien lorsqu’on désire faire comprendre plus intuitivement les comportements collectifs, des raisonnements plus qualitatifs peuvent être mobilisés. Ainsi, un raisonnement qui s’appuie sur les frontières séparant les régions d'orientations différentes (Méthode de Peierls), pour un réseau 2D, aboutit à la certitude de l’existence d’une température critique, sans cependant être à même d’en donner la valeur. Le recours à des notions physiques de thermodynamique, telles que l’entropie et l’énergie libre, est également très utile.

Mais, au bout du compte, les difficultés mathématiques des calculs croissent très vite avec la complexité spatiale du réseau, et peuvent devenir insurmontables, alors même que les interactions individuelles sont très simples, que les individus sont identiques les uns aux autres et qu’ils sont disposés sur un réseau spatial régulier et rigide. 

De telles constatations iraient dans le sens d’un réductionnisme faible, affirmant un déterminisme de principe du collectif par l’individuel, mais devant renoncer à exploiter ce déterminisme dans beaucoup de situations. 

 

Robert B. Laughlin et l'Emergence.


Robert B. Laughlin est un physicien, co-lauréat du prix Nobel de physique en 1998 pour ses travaux sur l’effet Hall quantique fractionnaire. Dans son livre "un Univers Différent" paru chez Fayard en 2005  (collection «le Temps des Sciences»), il défend sa thèse affirmant les illusions et les limites du réductionnisme et, simultanément, la fécondité de la notion d’émergence pour la Recherche scientifique. Il appuie sa réflexion sur plusieurs exemples d’organisations : au sein de populations d'atomes ou de molécules, les structures cristallines, l'état super-fluide ; au sein de populations d'électrons dans les métaux, l'état de supraconductivité, ou encore l'état lié à l'effet Hall quantique.
Je suis un lecteur pour lequel ces domaines de la physique sont largement inconnus. Je pense cependant pouvoir comprendre certaines prises de position, mais pour  les adopter j’ai besoin d’un minimum de formalisation. Aussi le livre cité de Robert Laughlin souffre-t-il pour moi d’être trop littéraire et je reste sur ma faim ; bien qu’intéressé par les développements sur la nature émergente des phénomènes abordés, et interpellé par la force des convictions de l’auteur à ce propos, mes connaissances réduites en la matière me laissent «incapable d’être convaincu». 

 
De ma lecture je retiens qu’un état émergent pour l'auteur est l’état d’un système macroscopique caractérisé par les propriétés suivantes :
 
 


 

De telles propriétés sont bien la marque de la mise en place d’une organisation au sein du système considéré : une organisation, selon Laughlin, ne peut en effet, par nature, exister «approximativement» , elle est présente ou elle ne l’est pas. Cette organisation structure un ensemble d’éléments - les atomes dans les liquides ou les structures cristallines, les électrons dans les supra-conducteurs - lesquels éléments peuvent en l’occurrence perdre toute individualité. La dite organisation se caractérise par dessymétries - celles qu’elle conserve et celles qu’elle a perdues dans la transition qui l’a fait naître - et des grandeurs comme le paramètre d’ordre. Elle résulte d’un enchevêtrement d’une multitude de processus sous-jacents, que l’on peut mettre en équations, sans que nécessairement on puisse les exploiter.

A cela s’ajoute une idée importante, celle du caractère générique des organisations émergentes. Savoir, le fait que ces organisations - et les comportements macroscopiques associés - se regroupent en grandes catégories identifiées par des structures communes et, pour ainsi dire, «trans-disciplinaires». Ces structures communes d’organisation et de comportement se retrouvent pertinentes pour décrire des phénomènes physiques différents. Laughlin souligne ainsi l’identité de structure des états super-fluides et des états de supra-conductivité, déjà mentionnés.

 

 

 

 

Pour lire la suite aller sur son blog :

http://jeanpierretreuil.blogspot.fr/2014/06/remy-lestienne-et-lemergence-i.html

 

 

 

 

 

Ensuite, c'est notre Xavier Colas de la Noue national qui nous écrit :

 

Cet exposé pose le problème de la vie et c'est le + important même si je crois sincèrement que le problème de l'émergence repose sur une base religieuse qui explique tout sans rien expliquer.
Voici ma petite synthèse de Craig Venter en 1/3 de page, les 2/3 restant venant des Pr. Prochiantz et Edith Heard du Collège de France.
1) Ce petit travail montre que la chimie biogénétique de la scissiparité et de l'ADN est un pur programme d'instructions séquentielles codées, un "robot moléculaire" reproductible artificiellement assez facilement. L'émergence n'y a que peu d'utilité explicative.
2) Par contre la chimie bio-vitale (se nourrir, respirer, excréter) est impossible à reproduire. Elle est composée de millions de processus biochimiques avec un nombre immense de boucles de rétroaction positives ou négatives entre molécules très nombreuses et très complexes. On peut les reproduire une à une mais il est impossible de faire fonctionner tous ces millions de systèmes comme "un seul système". C'est un peu comme vouloir faire fonctionner un moteur d'avion comportant 10 millions de pièces mobiles. D'ailleurs Craig Venter se sert du cytoplasme d'une levure eucaryote pour les 10 derniers attachements de l'ADN "artificiel" d'une bactérie procaryote en un seul mono-brin. L'émergence n'a rien à expliquer sur cette chimie bio-vitale extrêmement complexe mais basique.
3) Enfin, tout cela n'explique pas l'apparition de la vie (en 1 Md d'années) qui a réussi à choisir 250 000 protéines "efficaces"  parmi les 10^500 autres protéines possibles combinant différemment les 20 acides aminés sur un gène en comportant 500 (50 à 500). La nature n'a pu tester toutes ces combinaisons. On en est réduit à imaginer des pré-ARN, des pré-ribosomes, des pré-membranes lipidiques, un darwinisme chimique du pré-cytolasme .........tout cela finissant par constituer le fameux LUCA, la première cellule vivante à ADN-ARN minimal. L'émergence, là encore, ne résout rien sauf à imaginer des milliers d'émergences différentes pour expliquer comment LUCA a pu évoluer vers les cellules eucaryotes infiniment plus complexes. La vie sur les exoplanètes (même s'il y en avait 10^30) ne pourrait y apparaître.

L'apparition de la vie est un hasard incroyable compte tenu de sa probabilité 250 000/10^500 !!
 

J'ai aimé cet exposé parce qu'il pose un problème fondamental, crucial même si la solution qu'il propose ne peut pas être la mienne.

 

 

 

 

 

POUR ALLER PLUS LOIN :

 

 

 

 

Jean Pierre Martin SAF Président de la Commission de Cosmologie

www.planetastronomy.com

Abonnez-vous gratuitement aux astronews du site en envoyant votre e-mail.

 

 

PROCHAINES RÉUNIONS DE LA COMMISSION DE COSMOLOGIE :

 

Notez dès à présent les dates des prochaines réunions pour la rentrée : toujours à 15H au siège 3 rue Beethoven P16

Nous sommes satisfaits de la nouvelle réorganisation de la salle.  Merci d’avance de votre aide.

 

 

Marquez ces dates dans vos agendas

 

merci de nous proposer des thèmes et/ou des conférenciers