Mise à jour le 9 Juin 2014
CONFÉRENCE
de Rémy LESTIENNE,
Physicien
«Émergence
: une limite au réductionnisme ? une porte ouverte au libre arbitre
?»
Organisée
par la SAF
Dans
ses locaux, 3 rue Beethoven, Paris XVI
Le
Samedi 17 Mai 2014 à 15H00
à l'occasion de la réunion de la Commission
de Cosmologie.
Photos : JPM pour l'ambiance. (les photos avec plus de résolution
peuvent m'être demandées
directement)
Les photos des slides sont de la présentation de l'auteur. Voir
les crédits des autres photos si nécessaire
(Le conférencier a eu la gentillesse de nous donner sa
présentation complète (en pdf) elle est disponible sur le site de la commission et également
disponible sur ma liaison ftp au
téléchargement et s'appelle.
http://www-cosmosaf.iap.fr/LestienneParis2014.pdf
elle est dans le dossier COSMOLOGIE SAF de la saison 2013-2014).
Ceux qui n'ont pas les mots de passe doivent
me contacter avant.
Pour info les actualités cosmo présentées ce jour là sont aussi
disponibles sur le site de la
commission.
BREF COMPTE RENDU
Rémy Lestienne est
à la fois Physicien et Neurobiologiste.
Cette conférence a
particulièrement favoriser la verve des participants, aussi je vais leur
laisser la parole.
Notre ami Jean Pierre Treuil qui a pris beaucoup de notes, il
nous fait part de ses commentaires que je reproduis en partie ici :
Lors de sa réunion du 17 mai 2014, la commission Cosmologie de la SAF recevait Rémy Lestienne. pour
l'écouter sur la notion d'émergence. Directeur de Recherche (actuellement
émérite) au CNRS, Rémy Lestienne a été successivement physicien puis
neuro-biologiste. A coté de publications spécialisées, il est l'auteur de
plusieurs ouvrages dans lesquels les thèmes de l'émergence, mais aussi du temps
- temps physique, temps biologique, temps subjectif - occupent une place
importante.
La SAF a rendu l'exposé de Rémy Lestienne accessible sur la
toile. Mon propos est ici, non pas d'en faire un résumé exhaustif, mais d'en
reprendre quelques points essentiels, en essayant de clarifier certaines
interrogations. Avant d'entrer dans le sujet, je veux souligner l'intérêt que
j'ai pris à cet exposé, par les références qui ont été données et l'accent
porté sur des questions touchant à la nature de la Science.
Une introduction sous l'angle de l'histoire
des sciences
La manière dont Lestienne a commencé son exposé a pu surprendre. Il l'a placé en
effet d'emblée dans le cadre d'un débat de philosophie des Sciences, en
parlant deréductionnisme et d'émergentisme,
en retraçant brièvement l'histoire de ces deux notions, et en annonçant un
parti-pris clair en faveur de la seconde.
Et
de décrire un mouvement de balancier, alternant les faveurs sur l'une puis sur
l'autre de ces conceptions de la manière dont on peut parvenir à comprendre
(partiellement) notre univers : Lestienne a évoqué brièvement Aristote et une
certaine tendance émergentiste, et Descartes, clairement (?) réductionniste.
Puis il s'est attardé sur le mouvement des idées au XXème siècle, pour affirmer
que le regain de faveur de l'émergentisme tirait en partie son origine des
avancées des sciences physiques, et se trouvait renforcé par les recherches sur
l'apparition de la Vie et les sciences du cerveau. Ces trois domaines
scientifiques ont ensuite structuré son exposé.
Bien sûr, cette introduction s'est accompagnée d'une définition générale de
l'émergence, comme apparition
soudaine - dans l'Univers - de qualités
nouvelles,
de propriétés non
attendues,
voire non
explicables.
Mais peut-être que devant un public tel que le nôtre, passer un moment sur un
exemple concret et simple eut pu mieux faire percevoir les enjeux du débat et
permettre une meilleure discussion.
Le présent billet est centré sur la problématique de l’émergence en Physique, et
sur ce que j’ai pu saisir de ses enjeux méthodologiques. Les autres domaines
abordés par Lestienne feront l’objet du prochain billet.
L'émergence en Physique
L'émergence, dans sa manifestation la plus simple, me semble être
l'apparition d'uneorganisation au sein d'une collectivité d'entités en interactions.
Il est utile de rapporter ici la définition figurant dans la version anglaise
de l'article Emergence de
Wikipédia. Je cite : "a process whereby larger entities, patterns and
regularities arise through interactions amogn smaller or simpler entities that
themselves do not exhibit such properties"
Modèles
d'Ising
Un exemple élémentaire d'un tel contexte est fourni par les "modèles d'Ising",
élaborés à l’origine dans le cadre de l’étude du ferromagnétisme, mais
utilisés dans bien d’autres cadres ; ils ont été l’occasion, dans ma vie
professionnelle, de me familiariser avec la question des rapports entre
niveaux individuels et collectifs. C’est pourquoi, bien que non mentionnés par
Lestienne dans son exposé, je les reprends ici pour entrer dans le débat et
les reprendre ensuite dans la discussion.
De tels modèles mettent en oeuvre des
systèmes composés d'éléments ou sites disposés
en réseau régulier, en 1, 2 ou 3 dimensions, et s'orientant binairement (par
exemple positivement ou négativement) en fonction de leurs voisins
immédiats. Ces modèles font l'objet d'une abondante littérature en physique
statistique, et se prêtent en informatique à des simulations aisées à
programmer. L'interaction entre un élément du réseau et ses voisins consiste
en une tendance à adopter l'orientation majoritaire observée dans ce
voisinage ; cette tendance est contrariée par une agitation thermique, codée
par un paramètre de température, poussant au contraire à changer
aléatoirement d'orientation.
Différentes variantes existent, selon le nombre de dimensions, la taille du
voisinage, le forçage temporel des transitions (simultanées ou survenant
indépendamment les unes des autres). Les simulations - et parfois, nous le
verrons, les analyses mathématiques - montrent pour certaines de ces variantes
l'existence d'une
température
critique : en dessous de
cette température, on observe une
organisation du réseau, dans
laquelle de vastes régions conservent au cours du temps une
orientation
majoritaire stable et massive : les éléments de ces régions
gardent quasi-constamment cette orientation commune. Le franchissement de la
température critique provoque une transition de phase du réseau. On peut
consulter pour un exposé approfondi le
cours de Michel
Héritierdu Laboratoire de Physique des Solides de Paris-Sud
De
l'individuel au collectif
Retenons donc,
pour le moment, ceci : Les phénomènes émergents sont des phénomènesorganisationnels s'observant dans des
collectivités (ou populations) rassemblant un grand nombre de constituants
élémentaires (ou individus) ; ils sont le signe de l'existence, dans ces
collectivités, d'une organisation particulière. Pour chacune de ces
organisations ouétats organisationnels, l'attention se porte sur les
points suivants :
- leurs conditions d'apparition et de disparition,
leur comportements face à différents stress,
- les liens entre 1) ces propriétés globales et 2) la
physique sous-jacente : celle des composants élémentaires des
collectivités concernées et des interactions entre ces composants ;
autrement dit, le lien entre le comportement global de la collectivité
et les comportements individuels
La discussion sur
l’émergence se concentre sur deux questions :
- connaissant de façon précise les comportements
individuels des composants et leurs interactions, est-il possible de prévoir de façon
certainel’organisation et le comportement de la collectivité ; les
instruments de cette prédiction pouvant être 1) la déduction mathématique et/ou 2)
diversesexpérimentations, modifiant les paramètres des composants,
pour en observer les conséquences sur la collectivité ; et
rapporter ainsi un lien univoque - autrement dit déterministe - entre le
niveau individuel - commecause - et le niveau collectif -
comme effet.
- réciproquement, connaissant l’organisation et le
comportement de la collectivité, peut-on en induire les propriétés des
composants. Sachant qu’à priori, rien ne s’oppose à ce que l’on aboutisse,
en empruntant ce chemin inverse, à plusieurs possibilités ; une même
organisation collective pouvant par exemple être générée par de nombreux
modes d’interactions différents.
Une réponse entièrement positive à la première question
fonde ce qu’on appelle leréductionnisme. Dans une vision de la
réalité dans laquelle les différents niveaux d’analyse forment une
hiérarchie allant des plus simples (les niveaux inférieurs) aux plus
complexes (les niveaux supérieurs), le réductionnisme affirme que les
caractéristiques des comportements observés à un certain niveau déterminent
de façon univoque celles observées au niveau immédiatement supérieur.
Une version plus faible de
cette conviction affirme une relation plus lâche :
la connaissance des comportements individuels et des lois d’interaction
entre individus (le niveau inférieur) permet de prévoir une palette
possible d’organisations
et de comportements collectifs (le niveau supérieur) ; l’organisation et le
comportement collectif effectivement
observés est simplement l’une des possibilité de cette palette :
l’apparition de telle organisation collective plutôt que de telle autre
semble due alors au hasard, en tout cas à des facteurs inaccessibles
à toute mesure.
Une
autre version faible consiste à admettre le principe
de la dépendance : les comportements du niveau collectif sont
bien en principe une conséquence de ceux du niveau
individuel, mais en pratique, dans nombre de cas, cette
dépendance est inexploitable : elle ne peut servir à aucune
prédiction. Et chaque niveau doit être étudié en lui même.
Une
réponse négative radicale conteste - dans certains cas
- la possibilité même de caractériser les comportements individuels,
indépendamment des organisations collectives dont ces individus font
parti. Niveau individuel
et niveau collectif apparaissent alors comme soudés dans une boucle causale,
sans que l’on puisse donner la priorité à l’un d’entre eux. Cette réponse
conduit à affirmer que certains phénomènes collectifs relèvent d’une émergence
«forte» - selon
l’expression utilisée dans le texte de Lestienne, page 9 - irréductible à la
seule analyse des composants ; elle souligne en conséquence, pour de tels
phénomènes, le caractère vain de toute tentative réductionniste. Le seul
objectif scientifique valide est de caractériser les différents types
existants d’organisation collective, de caractériser pour chacun de ces
types les comportements individuels associés, et de mettre en lumière la
cohérence de ces associations.
Primauté
de l'individuel ?
Cette formulation de la gradation
entre réductionnisme et «émergentisme» demeure imprégnée d’une vision
«classique» de la physique, en ce sens que l’objet collectif reste
appréhendé comme un ensemble d’objets individuels
séparables
et localisables. De plus, ces objets individuels sont considérés
comme
préexistant aux
diverses organisations dont ils peuvent être partie prenante :
par exemple les mêmes molécules d’eau, objets individuels, selon les
conditions de température et de pression, vont s’organiser en vapeur, en
eau liquide ou en glaces.
La préexistence des
objets individuels introduit une dissymétrie entre le niveau individuel et
le niveau collectif,
le
premier apparaissant inévitablement, dans cette vision classique, comme plus
fondamental. A mon sens, cette dissymétrie rend la quatrième option
(l’émergence forte) plus difficile à défendre. Mais la physique quantique,
en introduisant de sérieuses réserves à la notion d’objet au niveau
microscopique, apporte des éléments nouveaux. J’y reviendrai à propos des
thèses de Robert B. Laughlin, cité par Lestienne.
Retour
sur les modèles d'Ising.
La simplicité des modèles d’Ising, du moins dans certaines variantes,
permet un traitement mathématique exact. Ce traitement, à partir d’une
formalisation des interactions entre sites et de la valeur de leurs
paramètres, effectue le calcul de
grandeurs caractérisant organisation et comportement collectifs, savoir :
existence et valeur de la température critique, corrélation entre les
orientations des sites selon la distance qui les séparent, voire taille
moyenne des domaines d’orientation homogène.
Rappelons brièvement
comment sont caractérisées interactions individuelles et organisation
collective dans Ising :
-
caractérisation des comportements individuels :
l’interaction entre deux sites quelconques est associée à une grandeur,
le potentiel
d’interaction, grandeur qui est minimale lorsque
les deux sites ont la même orientation. La probabilité pour un site,
d’inverser son orientation à un instant donné, est fonction de la valeur
cumulée de tous les potentiels d’interaction auxquels il est soumis, et de
la température : si par exemple cette température est nulle (pas
d’agitation aléatoire) et si lui-même et tous ses voisins partagent la
même orientation, la probabilité de voir son orientation s’inverser est
nulle.
-
caractérisation de l’organisation collective :
s’agissant d’une collectivité en constante agitation (dès que la
température n’est pas nulle), son organisation est caractérisée par des
distributions de probabilités, résumées en pratique par les espérances
mathématiques -
prises à travers le temps - de certaines quantités. Parmi de telles
quantités, citons 1) l’orientation moyenne
par siteà un instant donné ; 2) la corrélation des
orientations observées au même instant sur deux sites séparés d’une
distance donnée ; 3) l’énergie
totale du
réseau, somme des potentiels d’interactions observés sur chaque paire de
site à un instant donné.
Le calcul de ces espérances mathématiques passe par celui de la
distribution de probabilités de l’énergie totale, à l’aide d’une formule
bien connue en physique statistique. Cette formule fait intervenir une
fonction, dite fonction
de répartition. Cette fonction se présente comme une somme de termes
associés à chaque configuration possible du réseau, configurations qui
diffèrent les unes des autres par l’orientation d’au moins un site.
La formule exacte
donnant la fonction de répartition d’Ising a pu être établie pour des
réseaux linéaires et des réseaux à deux dimensions. Une fois cette formule
obtenue, les grandeurs caractérisant l’organisation collective - et leur
comportement en fonction de la température - se calculent très
simplement. On montre ainsi, dans le cas linéaire, qu'il n’existe pas
de température critique : aucune orientation privilégiée ne subsiste de
façon stable, dès que la température n’est pas strictement nulle. Au
contraire, dans le cas d’un réseau à deux dimensions, il existe bien une
température critique et la relation, entre cette température et la force des
interactions individuelles, est établie.
La
simplicité des modèles d'Ising : une illusion ?
Au premier abord, les modèles d’Ising sont une illustration de la
validité du réductionnisme : propriétés d’un collectif calculables, et
donc prévisibles, à partir d’une mise en équation des interactions entre
membres de ce collectif.
Cette conclusion doit cependant être
nuancée :
- en
premier lieu, quelques détails techniques ont été omis dans la
présentation précédente. Ces détails concernent, entre autres, la taille
du réseau et la nécessité de passage à la limite, lorsque cette taille
devient infinie. Sont omises également les considérations relatives au
nombre de voisins et à la «portée» des interactions. De tels détails ne
changent pas l’architecture des calculs, mais peuvent les compliquer
notablement.
- en
second lieu, plus important, la possibilité de conduire les calculs de
façon exacte semble limitée : si le cas d’un réseau linéaire (1D) est
simple, celui d’un réseau 2D est nettement plus complexe : à tel point,
par exemple, que la démonstration d’Onsager (1944) n’est pas présentée
complètement dans le cours de Michel Héritier, comme état «hors du cadre»
d’un tel cours ; aucun calcul exact n’existe à ma connaissance pour des
réseaux en trois dimensions ou davantage.
Lorsque de tels calculs ne sont pas possibles, ou bien lorsqu’on
désire faire comprendre plus intuitivement les comportements collectifs, des
raisonnements plus qualitatifs peuvent être mobilisés. Ainsi, un
raisonnement qui s’appuie sur les frontières séparant les régions
d'orientations différentes (Méthode de Peierls), pour un réseau 2D, aboutit
à la certitude de l’existence d’une température critique, sans cependant
être à même d’en donner la valeur. Le recours à des notions physiques de
thermodynamique, telles que l’entropie et l’énergie libre, est également
très utile.
Mais, au bout du compte, les difficultés mathématiques
des calculs croissent très vite avec la complexité spatiale du réseau, et
peuvent devenir insurmontables, alors même que les interactions
individuelles sont très simples, que les individus sont identiques les uns
aux autres et qu’ils sont disposés sur un réseau spatial régulier et rigide.
De telles constatations iraient dans le sens d’un réductionnisme faible,
affirmant un déterminisme de principe du collectif par l’individuel, mais
devant renoncer à exploiter ce déterminisme dans beaucoup de situations.
Robert
B. Laughlin et l'Emergence.
Robert B.
Laughlin est un
physicien, co-lauréat du prix Nobel de physique en 1998 pour ses travaux sur
l’effet Hall quantique fractionnaire. Dans son livre "un Univers Différent"
paru chez Fayard en 2005 (collection «le Temps des Sciences»), il défend
sa thèse affirmant les illusions et les limites du réductionnisme et,
simultanément, la fécondité de la notion d’émergence pour la Recherche
scientifique. Il appuie sa réflexion sur plusieurs exemples d’organisations
: au sein de populations d'atomes ou de molécules, les
structures
cristallines, l'
état
super-fluide ; au sein de
populations d'électrons dans les métaux, l'état de
supraconductivité, ou encore l'état lié à l'
effet
Hall quantique.
Je suis un lecteur pour lequel ces
domaines de la physique sont largement inconnus. Je pense cependant pouvoir
comprendre certaines prises de position, mais pour les adopter j’ai
besoin d’un minimum de formalisation. Aussi le livre cité de Robert Laughlin
souffre-t-il pour moi d’être trop littéraire et je reste sur ma faim ; bien
qu’intéressé par les développements sur la nature émergente des phénomènes
abordés, et interpellé par la force des convictions de l’auteur à ce propos,
mes connaissances réduites en la matière me laissent «incapable d’être
convaincu».
De ma lecture je retiens qu’un état émergent
pour l'auteur est l’état d’un système macroscopique caractérisé par les
propriétés suivantes :
- sa
«solidité», sa résistance aux modifications de son environnement, dans une
large fourchette de valeurs
- son
apparition, ou sa destruction, se manifestant brusquement, comme
conséquence du franchissement d’un certain seuil par un certain paramètre,
telle la température. En termes physiques, la survenance d’un tel état, ou
sa disparition, est une transition de
phase.
- le
fait que ces propriétés, plus précisément les grandeurs et les lois
caractérisant l’état, sont d’autant plus stables, ou plus exactes, que la
taille physique de ce système est importante.
De telles propriétés sont bien la marque
de la mise en place d’une organisation au sein du système considéré : une
organisation, selon Laughlin, ne peut en effet, par nature, exister
«approximativement» , elle est présente ou elle ne l’est pas. Cette
organisation structure un ensemble d’éléments - les atomes dans les liquides
ou les structures cristallines, les électrons dans les supra-conducteurs -
lesquels éléments peuvent en l’occurrence perdre toute individualité. La
dite organisation se caractérise par dessymétries -
celles qu’elle conserve et celles qu’elle a perdues dans la transition qui
l’a fait naître - et des grandeurs comme le paramètre
d’ordre. Elle résulte d’un enchevêtrement d’une multitude de processus
sous-jacents, que l’on peut mettre en équations, sans que nécessairement on
puisse les exploiter.
A cela s’ajoute une idée importante, celle du
caractère générique des organisations émergentes.
Savoir, le fait que ces organisations - et les comportements macroscopiques
associés - se regroupent en grandes catégories identifiées par des
structures communes et, pour ainsi dire, «trans-disciplinaires». Ces
structures communes d’organisation et de comportement se retrouvent
pertinentes pour décrire des phénomènes physiques différents. Laughlin
souligne ainsi l’identité de structure des états super-fluides et des états
de supra-conductivité, déjà mentionnés.
Pour lire la suite aller sur son blog :
http://jeanpierretreuil.blogspot.fr/2014/06/remy-lestienne-et-lemergence-i.html
Ensuite, c'est notre Xavier Colas de la Noue national qui nous
écrit :
Cet exposé pose le problème de la vie et c'est le + important
même si je crois sincèrement que le problème de l'émergence repose sur une base
religieuse qui explique tout sans rien expliquer.
Voici ma petite synthèse
de Craig Venter en 1/3 de page, les 2/3 restant venant des Pr. Prochiantz et
Edith Heard du Collège de France.
1) Ce petit travail montre que la chimie
biogénétique de la scissiparité et de l'ADN est un pur programme d'instructions
séquentielles codées, un "robot moléculaire" reproductible artificiellement
assez facilement. L'émergence n'y a que peu d'utilité explicative.
2) Par
contre la chimie bio-vitale (se nourrir, respirer, excréter) est impossible à
reproduire. Elle est composée de millions de processus biochimiques avec un
nombre immense de boucles de rétroaction positives ou négatives entre molécules
très nombreuses et très complexes. On peut les reproduire une à une mais il est
impossible de faire fonctionner tous ces millions de systèmes comme "un seul
système". C'est un peu comme vouloir faire fonctionner un moteur d'avion
comportant 10 millions de pièces mobiles. D'ailleurs Craig Venter se sert du
cytoplasme d'une levure eucaryote pour les 10 derniers attachements de l'ADN
"artificiel" d'une bactérie procaryote en un seul mono-brin. L'émergence n'a
rien à expliquer sur cette chimie bio-vitale extrêmement complexe mais
basique.
3) Enfin, tout cela n'explique pas l'apparition de la vie (en 1 Md
d'années) qui a réussi à choisir 250 000 protéines "efficaces" parmi les
10^500 autres protéines possibles combinant différemment les 20 acides aminés
sur un gène en comportant 500 (50 à 500). La nature n'a pu tester toutes ces
combinaisons. On en est réduit à imaginer des pré-ARN, des pré-ribosomes, des
pré-membranes lipidiques, un darwinisme chimique du pré-cytolasme .........tout
cela finissant par constituer le fameux LUCA, la première cellule vivante à
ADN-ARN minimal. L'émergence, là encore, ne résout rien sauf à imaginer des
milliers d'émergences différentes pour expliquer comment LUCA a pu évoluer vers
les cellules eucaryotes infiniment plus complexes. La vie sur les exoplanètes
(même s'il y en avait 10^30) ne pourrait y apparaître.
L'apparition de la vie est un hasard incroyable compte tenu de sa
probabilité 250 000/10^500 !!
J'ai aimé cet exposé parce qu'il pose un problème fondamental,
crucial même si la solution qu'il propose ne peut pas être la mienne.
POUR ALLER PLUS LOIN :
Jean Pierre Martin
SAF Président de la Commission de Cosmologie
www.planetastronomy.com
Abonnez-vous gratuitement aux astronews du site en envoyant votre
e-mail.
PROCHAINES RÉUNIONS DE LA
COMMISSION DE COSMOLOGIE :
Notez dès à présent les dates des prochaines réunions pour
la rentrée : toujours à 15H au siège 3 rue Beethoven P16
Nous sommes satisfaits de la nouvelle réorganisation de la
salle. Merci d’avance de votre aide.
-
samedi 20 Septembre
-
samedi
15 Novembre
-
samedi
17 Janvier 2015
Marquez ces dates dans vos agendas
merci de nous proposer des thèmes et/ou des conférenciers