L'entropie


L'entropie est un concept complexe, élaboré par le monde scientifique : Sadi Carnot, Rudolf Clausius, au XIXe siècle, puis Ludwig Boltzmann, Claude Shannon, etc. F.Roddier écrit à ce sujet : "La notion d’entropie est particulièrement délicate. Il a fallu un siècle pour la comprendre"(1).

Nous rapportons cette définition de l'entropie: "Notion thermodynamique qui caractérise le degré de dégradation de l’énergie d’un système, et donc son degré de désorganisation. L’entropie sert à rendre compte du désordre d’un système physique. Morin fondera sur cette notion son idée de dialogique de l’ordre et du désordre qui met à mal une conception du cosmos qui exclurait le désordre et le chaos. Le désordre prend dès lors la forme d’un principe organisationnel, au sens paradoxal où il introduit de la désorganisation nécessaire au maintien de l’intégrité d’un système"(2).

On verra que le concept d'entropie s'organise, principalement autour de la notion d'ordre et de désordre, mais aussi autour de la complexité, avec ces questions : Qu'est-ce que l'ordre? Et qu'entend-on par complexité ?

Nous empruntons à E.Morin quelques éléments dressant l'historique du concept d'entropie: "Le second principe, esquissé par Carnot, formulé par Clausius (1850), introduit l'idée, non pas de déperdition —qui contredirait le premier principe—, mais de dégradation de l'énergie. Alors que toutes les autres formes d'énergie peuvent se transformer intégralement de l'une en l'autre, l'énergie qui prend forme calorifique ne peut se reconvertir entièrement, et perd donc une partie de son aptitude à effectuer un travail. Or toute transformation, tout travail dégagent de la chaleur, donc contribuent à cette dégradation. Cette diminution irréversible de l'aptitude à se transformer et à effectuer un travail, propre à la chaleur, a été désignée par Clausius du nom d'entropie… L'étonnant est que le principe de dégradation de l'énergie de Carnot, Kelvin, Clausius, se soit transformé en principe de dégradation de l'ordre au cours de la seconde moitié du XIXe siècle, avec Boltzmann, Gibbs et Planck. Boltzmann (1877) élucide l'originalité énergétique de la chaleur en situant son analyse à un niveau jusqu'alors ignoré : celui des micro-unités ou molécules constituant un système donné. La chaleur est l'énergie propre aux mouvements désordonnés des molécules au sein de ce système, et tout accroissement de chaleur correspond à un accroissement de l'agitation, à une accélération de ces mouvements. C'est donc parce que la forme calorifique de l'énergie comporte du désordre dans ses mouvements qu'il y a une dégradation inévitable de l'aptitude au travail. Ainsi, tout accroissement d'entropie est un accroissement de désordre interne, et l'entropie maximale correspond à un désordre moléculaire total au sein d'un système, ce qui se manifeste au niveau global par l'homogénéisation et l'équilibre. Le second principe ne se pose plus seulement en termes de travail. Il se pose en termes d'ordre et désordre. Il se pose du coup en termes d'organisation et de désorganisation, puisque l'ordre d'un système est constitué par l'organisation qui agence en un tout des éléments hétérogènes. Elle signifie en même temps que cette triple dégradation obéit à un processus irréversible au sein des systèmes physiques clos. Ici encore, Boltzmann développe une approche toute nouvelle : celle de la probabilité statistique. Le nombre des molécules et les configurations qu'elles peuvent prendre au sein d'un système sont immenses, et ne peuvent relever que d'une appréhension probabiliste. Dans cette perspective, les configurations désordonnées sont les plus probables et les configurations ordonnées les moins probables. Dès lors, l'accroissement d'entropie devient le passage des configurations les moins probables aux plus probables… En 1900 soudain, une formidable brèche s'ouvrit dans les fondements micro-physiques de l'ordre. Pourtant l'atome n'avait nullement trahi l'ordre physique en cessant d'être l'objet premier, irréductible, insécable, substantiel : Rutherford l'avait mué en un petit système solaire constitué de particules gravitant autour d'un noyau, aussi merveilleusement ordonné que le grand système astral. L'ordre micro-physique semblait devoir donc être symétrique à l'ordre macrocosmique, lorsqu'arriva l'accident. Le virus du désordre, nourri par Boltzmann et Gibbs, fit soudain souche micro-physique avec la notion discontinue de quantum d'énergie (Max Planck), et déferla dans les sous-sols de la matière… Un lever de rideau, en 1923, découvre l'existence d'autres galaxies, qui vont se compter bientôt par millions, chacune grouillant de un à cent milliards d'étoiles. Sans cesse, depuis, l'infini recule à l'infini et le visible fait place à l'inouï (découverte en 1963 des quasars, en 1968 des pulsars, puis des «trous noirs»). Mais la grande révolution n'est pas de découvrir que l'univers s'étend à des distances incroyables et qu'il contient les corps stellaires les plus étranges : c'est que son extension correspond à une expansion, que cette expansion est une dispersion, que cette dispersion est peut-être d'origine explosive. En 1930, la mise en évidence par Hubble du déplacement vers le rouge de la lumière émise par les galaxies lointaines permet de concevoir et de supputer leur vitesse d'éloignement par rapport à nous et fournit la première base empirique à la théorie de l'expansion de l'univers. Les observations qui suivent s'intègrent dans cette théorie qui désintègre l'ordre cosmique… Or, nous pouvons aujourd'hui interroger la possibilité d'une genèse dans et par le désordre, en revenant à la source thermodynamique où avait surgi le désordre désorganisateur, et où surgit aujourd'hui l'idée d'un désordre organisateur. C'est que le développement nouveau de la thermodynamique, dont Prigogine est l'initiateur, nous montre qu'il n'y a pas nécessairement exclusion, mais éventuellement complémentarité entre phénomènes désordonnés et phénomènes organisateurs"(3).

Qu'est-ce que l'ordre ? Dans les lignes suivantes c'est à cette question que répond F.Roddier, apportant une nouvelle notion, celle d'information : "Il vint à l’idée d’un physicien autrichien, Ludwig Boltzmann, que l’entropie était une mesure du désordre moléculaire. En effet, en agitant l’eau, on communique aux molécules un mouvement mécanique initialement ordonné. Peu à peu, ce mouvement tend naturellement à devenir désordonné… L’entropie d’un système isolé augmente parce que le mouvement au hasard des molécules tend naturellement à devenir désordonné. Cette évolution est irréversible. Par contre, s’il y a apport d’énergie extérieure, alors le mouvement peut devenir ordonné… Le passage d’un état moléculaire désorganisé à un état moléculaire organisé correspond à une diminution d’entropie... Peu de temps après Boltzmann, le physicien américain Willard Gibbs généralisait sa théorie, y incluant notamment les réactions chimiques, essentielles pour expliquer la vie. Son travail resta longtemps mal compris. La notion d’ordre a une apparence subjective. Chacun range ses affaires comme il l’entend. Si un bureau couvert de documents peut paraître tout à fait en ordre à son utilisateur, il peut tout aussi bien paraître en complet désordre à la personne chargée d’en retirer la poussière. La notion d’ordre est en effet intimement liée à la notion d’information. L’ordre est un moyen de mémoriser et d’échanger de l’information. Dans un atelier, un ouvrier range ses outils non seulement pour les retrouver plus facilement, mais aussi pour que ses compagnons puissent les trouver facilement. Ce n’est pas par hasard si les Français ont baptisé «ordinateur» un appareil de traitement de l’information. Il a fallu attendre la fin de la Deuxième Guerre mondiale pour qu’un physicien américain, Claude Shannon, spécialiste des télécommunications, se pose le problème de mesurer une quantité d’information. En formalisant le problème, il tomba sur la formule mathématique que Gibbs avait donnée pour l’entropie. L’expression de Shannon montrait qu’une augmentation d’entropie peut être considérée comme une perte d’information. Cela donnait un nouveau sens au mot entropie. Lorsque le mouvement des molécules est parfaitement ordonné, l’état microscopique du système est complètement déterminé. La vitesse de chaque molécule est connue : c’est celle du fluide. Lorsque le mouvement devient désordonné, les vitesses des molécules prennent des valeurs différentes. On ne les connaît plus. L’état microscopique du système devient indéterminé. Clairement notre information sur le système a diminué. Inversement lorsque, grâce à un apport d’énergie extérieure, le mouvement des molécules devient ordonné, alors de l’information apparaît. L’entropie du système diminue. Avec Shannon, l’entropie d’un système devenait une mesure de notre méconnaissance de son état microscopique. Cela entraîne un certain nombre de conséquences qui ne sont pas toujours pleinement appréciées. (1)

L'augmentation de l’entropie va-t-elle de pair avec une perte d’information et par conséquent avec une perte de complexité ? Complexité et entropie sont-elles incompatibles ? Pour S.Carroll, c'est au contraire le désordre qui permet à la complexité de croître : "Le rôle de l'entropie dans le développement de la complexité semble de prime abord contre-intuitif. Le second principe de la thermodynamique stipule que l'entropie d'un système isolé croît avec le temps. Ludwig Boltzmann expliqua ce qu'est l'entropie : c'est une manière de compter le nombre d'agencements microscopiques de la substance constituant un système, qui sont indiscernables du point de vue macroscopique. S'il existe de nombreuses manières de réagencer les particules dans un système sans modifier son apparence, l'entropie de ce système est élevée. L'hypothèse du passé suppose que notre univers observable a débuté dans un état de très faible entropie, À partir de là, le second principe est facile à suivre: au fil du temps, l'univers passe d'une entropie basse à une entropie élevée, du simple fait qu'il y a de plus en plus de possibilités pour l'entropie d'être élevée. Augmenter l'entropie n'est pas incompatible avec une augmentation de la complexité, bien qu'on puisse le penser à cause de la manière dont on traduit parfois les termes techniques en langage informel… Qu'entend-on par «simple» ou «complexe», et quel est le lien avec l'entropie? Intuitivement, on associe la complexité à une entropie faible et la simplicité à une entropie élevée… L'apparition de la complexité n'est pas seulement compatible avec l'accroissement de l'entropie, elle repose dessus. Imaginons un système sans hypothèse du passé, se trouvant déjà dans un état d'équilibre avec une entropie élevée dès le début. La complexité ne peut pas s'y développer; le système entier demeure à jamais sans traits marquants ni intérêt (à part quelques rares fluctuations aléatoires). La seule raison pour laquelle des structures complexes se forment est l'évolution régulière de l'univers d'une entropie basse vers une entropie forte. Le «désordre» augmente, et c'est précisément ce qui permet à la complexité d'apparaître et de perdurer"(4).

Avec D.Elbaz nous porterons un autre regard sur l'hypothèse du passé, qui nous ramène inévitablement aux notions d'ordre et de désordre aux origines de l'Univers : "Il y a 13,8 milliards d'années, le Big Bang engendra l'univers que nous connaissons, d'abord sous la forme d'une soupe de particules élémentaires, puis d'atomes nés 380 000 ans plus tard. Au commencement donc, l'univers était peuplé d'éléments identiques les uns aux autres. Nous le savons aujourd'hui, l'univers a évolué d'une phase primordiale, constituée d'éléments indissociables les uns des autres, vers son état actuel, où il est peuplé de formes complexes et organisées, dotées d'une absolue unicité. La seule existence de ces structures pose une question essentielle pour la physique et notre compréhension de l'univers. L'univers est-il organisé en structures complexes, comme les galaxies, les nébuleuses, les systèmes planétaires parce qu'il répond à un principe organisationnel ? Ou bien s'agit-il d'une forme d'illusion liée à notre regard subjectif sur l'univers ? Comment une soupe primordiale, faite d'éléments indissociables les uns des autres et dotés d'une simplicité déconcertante, a-t-elle pu donner naissance à la richesse des formes de l'univers, depuis la forme en spirale d'une galaxie jusqu'à celle d'une fleur ? Justement, le mot «fleur» a pour origine étymologique le mot arabe zahr, qui est aussi à l'origine du mot az-zahr, le «hasard». Le jeu de dés, que l'on associe au hasard, se disait az-zahr, car une des faces des dés portait une fleur. En partant des conditions initiales telles que nous les comprenons aujourd'hui, d'un Big Bang, l'existence de la nébuleuse de la Carène et de sa Montagne mystique relève-t-elle du hasard ou de la nécessité ? L'organisation de la matière est-elle le fruit du hasard ou d'une cause, et donc d'une nécessité? Le hasard n'est pas contradictoire avec l'existence d'une cause nécessaire à l'organisation de la matière, donc d'une nécessité. C'est d'ailleurs le sens du livre Le Hasard et la Nécessité du biologiste Jacques Monod. Selon Monod, l'émergence de la vie résulte à la fois du hasard et de la nécessité, car elle relève des principes premiers de la physique et de la biologie, donc d'une cause nécessaire à son émergence, tout en n'étant pas «déductible de ces principes et donc essentiellement imprévisible». Je propose d'étendre ici la réflexion à l'univers et à l'émergence des formes qui précèdent le vivant. Cette question remonte aux origines de la philosophie, à l'heure où science et philosophie ne faisaient qu'un. Les philosophies de l'Antiquité en Grèce comme en Chine partagent un point commun avec la science moderne : la quête de principes invisibles simples permettant de donner un sens à la richesse des phénomènes visibles. On peut résumer cela par le passage du chaos -le désordre primordial- au cosmos - l'ordre de l'Univers"(5).

En citant de nouveau E.Morin, nous reviendrons vers la notion d'information dont il était question dans le texte de F.Roddier, et nous nous interrogerons sur l'impact du "bruit" sur l'organisation : "Mais l'extrapolation pure et simple de la notion shannonienne d'information et de la notion cybernétique de programme apportaient en même temps un obscurcissement au moins égal à leur vertu d'élucidation. En effet, la théorie néo-darwinienne associe le surgissement de caractères nouveaux au sein d'une espèce, au phénomène mystérieux de la mutation génétique. Or la théorie de l'information explique ainsi le phénomène : la duplication de l'ADN peut être conçue comme la copie d'un message, qui, en dépit des précautions, n'est pas absolument à l'abri de toutes perturbations aléatoires ou «bruits» (accident quantique, rayon cosmique perturbant un transfert d'électron); dès lors le bruit provoque une «erreur» dans la copie du message; la plupart du temps l'erreur se traduit par une dégradation dans l'organisation de l'être vivant, ce qui est conforme au théorème de Shannon; mais il arrive parfois, et c'est justement le cas d'une mutation biologique évolutive, que l'erreur provoque un accroissement de complexité organisationnelle. Comment donc le bruit, au lieu de dégrader l'organisation, peut-il, ici, la développer? Un problème béant, fabuleux s'ouvre donc et qui ne peut être traité que par l'introduction du désordre ou bruit au cœur même de la générativité informationnelle, ce qui nécessite une complexification de l'idée et un renouvellement de la théorie de l'information. C'est dans ce sens initiateur que, développant et transformant l'idée foerstérienne d'order from noise Atlan introduisit au cœur de la théorie de l'information, et, par conséquent, de la vie, l'idée du «bruit organisateur»(3).

 

1-Thermodynamique de l'évolution. F. Roddier

2-Abécédaire de la complexité. L. Yousfi

3-La Nature de la Nature. E.Morin

4-Le grand Tout. S.Carroll

5-La plus belle ruse de la lumière. D.Elbaz