Qu'est ce qu'un paradigme?
Un paradigme est un système de croyance, une vision du monde, un filtre perceptuel, qui permet d'appréhender la réalité.
Un paradigme est un système de croyance, une vision du monde, un filtre perceptuel, qui permet d'appréhender la réalité.
LE NOUVEAU PARADIGME SCIENTIFIQUE
Pour
célébrer la naissance du XXème siècle, lord Kelvin (qui donna son nom à
l’échelle des températures absolues) fit, en 1900, une célèbre conférence dans
laquelle il affirma que la physique avait tout expliqué à l’exception de
« deux petits nuages noirs » qui obscurcissaient encore le ciel
limpide de la science d’alors : l’expérience de Michelson et Morlay et le
rayonnement d’un corps noir quand il est chauffé. Bien que ses propos paraissent
aujourd’hui absurdes, notre lord ne manquait pas d’intuition ! Car ces
deux petits nuages noirs se sont transformés en deux tempêtes qui ont dévasté
la vision du monde de la science classique et qui, à travers des disciplines
comme la relativité générale et la mécanique quantique ont contribué à créer un
nouveau paradigme.
Qu’est-ce
qu’un paradigme ? C’est une conception du monde qui synthétise des
éléments venus de divers domaines. Dans la première partie nous avons décrit la
mise en place du « paradigme classique » qui de la Renaissance au
XXème siècle a semblé expulser Dieu de l’histoire des hommes. Aujourd’hui nous
avons assez de recul pour comprendre que le XXème siècle a vu émerger un
nouveau paradigme.
Physique
quantique
Le
premier « petit nuage noir » était constitué par la structure du
rayonnement d’un corps noir quand il est chauffé. Pour expliquer les résultats
expérimentaux, il fallut avoir recours à l’hypothèse que l’énergie était émise
par paquets (quanta) et non de manière continue, au niveau des particules
élémentaires. Cette première rupture avec les concepts de la science classique
mais aussi avec le sens commun (comment imaginer, à notre niveau de réalité à
nous, que la température d’une pièce passe de 21 à 23 degrés sans passer, ne fut-ce
qu’un instant, par 22 degrés ?) en engendra de nombreuses autres.
Einstein
montra que la lumière, qui était composée d’ondes, comme l’avait démontré Young
était aussi composée de particules de masse nulle, les photons. Le principe
d’incertitude d’Heisenberg en démontrant qu’on ne peut à la fois connaître la
position et la vitesse d’une particule porte un coup fatal au déterminisme
classique. Louis de Broglie en découvrant que, comme la lumière, la matière
aussi a une nature double, ondulatoire et corpusculaire, se livre à une
véritable « dématérialisation de la matière ». Tous les composants
fondamentaux de la matière se comportent tantôt comme des objets matériels
ponctuels, tantôt comme des ondes pouvant emprunter deux trajets différents à
la fois. C’est pourquoi Heisenberg dira que les particules élémentaires sont
moins réelles que des choses mais plus que l’idée d’une chose. Il s’agit
pourtant des bases de tout ce qui nous entoure.
Mais
la révolution quantique ne s’arrête pas là. En 1935, Einstein et deux de ses
collaborateurs Podolsky et Rosen, montrent que si l’on suit jusqu’au bout les
prédictions de la mécanique quantique, il existe des situations où deux
particules sont « non-séparables », où tout ce qui arrive à l’une se
répercute instantanément sur l’autre, quel que soit la distance qui les
séparent. Ce qu’Einstein, contrairement à Niels Bohr, croyait impossible à
cause du caractère fini de la vitesse de la lumière. Mais à partir des années
70, et surtout avec l’expérience d’Alain Aspect en 1983, les évidences
s’accumulèrent. Aujourd’hui personne ne met en doute l’existence de ce lien
mystérieux entre deux particules qui semble transcender le temps et l’espace.
Sachant
tout cela on peut apprécier la boutade de Niels Bohr : « Celui qui
n’est pas horrifié par la mécanique quantique lorsqu’il la découvre ne l’a
certainement pas comprise ».
Relativité et théorie
du Big Bang
L’autre
« petit nuage noir » qui inquiétait notre lord était l’expérience de
Michelson et Morley. Le résultat de celle-ci ne fut expliqué qu’en 1905 lorsque
Einstein produisit sa théorie de la relativité restreinte. Dans le vide, la
vitesse de la lumière est constante. Donc si une fusée va à une vitesse x et
émet un rayon de lumière allant à la vitesse c, le rayon, pour un observateur,
n’ira pas à la vitesse c + x mais à la vitesse c. Comme en mécanique quantique,
nous trouvons à la base de cette deuxième révolution une idée totalement
contre-intuitive et qui prend le contre-pied des concepts classiques. Et, ici
aussi, cela ne fait que commencer. La fameuse équation E=MC2 implique la
possibilité de transformer en objet les propriétés d’un objet. Ainsi les
quantités de mouvements de deux particules élémentaires qui entrent en
collisions vont contribuer à créer une nouvelle particule.
Avec
la relativité générale, l’espace n’est plus euclidien, il met fin à une
certitude vieille de 2000 ans. Le chemin le plus court entre deux points dans
la galaxie n’est plus une ligne droite car le temps, la matière et l’énergie
sont imbriqués et les masses courbent l’espace qui les environne.
Le
temps et l’espace n’étant plus des absolus, ils peuvent avoir une origine.
C’est ainsi que l’idée d’un « Big Bang », d’un commencement du temps
et de l’espace, peut se déduire logiquement de la relativité. Einstein
qualifiera plus tard de « plus grande erreur de sa vie » le fait de
ne pas avoir eu l’audace de suivre sa théorie jusqu’au bout et d’avoir laissé
le russe Friedmann et le belge Lemaître poser à sa place les bases de la
théorie du Big Bang. Théorie qui elle aussi prend complètement à contre-pied
des conceptions établies depuis 2500 ans qui, à la suite d’Aristote,
affirmaient que l’univers était éternel.
Dans
les années 1970, la théorie du Big Bang donna naissance à un domaine d’étude
encore plus provoquant pour les concepts classiques, le principe anthropique.
Avec les moyens informatiques modernes, il est possible de modéliser
l’évolution de l’univers et l’impact de telle ou telle variable sur cette
évolution. Il est ainsi possible de créer des univers virtuels où la masse du
proton, la constante de gravitation ou la vitesse de la lumière sont
différentes. Et l’on se rend compte que dans la quasi totalité des cas les
univers ayant des caractéristiques différentes du nôtre ne peuvent se
développer de façon à permettre l’apparition de la vie et de la conscience.
Il
est aisé d’expliquer ce fait si l’on postule l’existence d’une infinité
d’univers parallèles, tous déconnectés les uns des autres : nous sommes
par hasard dans le seul ayant les bonnes constantes. Mais s’il n’existe qu’un
univers (ou un petit nombre), alors la question du sens de notre existence
redevient, contrairement à ce qu’imaginaient Monod et Weinberg, une question
qui se pose au cœur même de la science, étant donné l’existence de ce « réglage »
très précis des constantes fondamentales de notre univers.
Théorie du chaos et
phénomènes non linéaires
Pendant
longtemps, on a cru, à la suite de Newton, que les systèmes dynamiques
représentaient la forteresse du déterminisme. Mais dès le début du XXème siècle
Henri Poincaré démontra que les interactions d’un système à trois corps ne
peuvent être prédites dans le long terme. Ce fut le début d’une révolution qui
amena de plus en plus de scientifiques, à la suite des travaux d’Ilya Prigogine,
entre autres, à s’intéresser à des phénomènes non-linéaires, où une petite
modification des conditions initiales provoque une grande divergence des
résultats finaux du processus. Ainsi en est-il du fameux « effet
papillon » selon lequel un battement d’ailes de papillon en Australie peut
provoquer une tempête trois semaines plus tard en Californie.
Car
l’atmosphère est un système instable et profondément non linéaire, ce qui rend
justement imprédictible son évolution à long terme. La théorie du chaos nous fait
ainsi entrer dans un monde probabiliste. Il y a là selon Ilya Prigogine
« une seconde révolution copernicienne qui nous donne une image bien plus
complexe du monde qui nous entoure et dans laquelle le problème de l’impact de
l’homme sur son environnement est aussi beaucoup plus compliqué à cerner, parce
que la nature n’est pas quelque chose de stable, de tranquille, de
permanent » (7. p. 28).
Et
comme nous y avons fait allusion avec « le problème des trois corps »
de Poincaré, ce mouvement touche aussi les systèmes newtoniens, au point que
Sir James Lighthill, Président de l’Union Internationale de mécanique pure et
appliquée, a pu écrire à la fin des années 80 qu’il s’excusait au nom de ses
collègues et de lui-même d’avoir propagé pendant trois siècles l’idée inexacte
que les systèmes newtoniens étaient déterministes.
Comme
le dit encore Prigogine « Chacun de nous doit s’excuser de temps en temps
pour avoir écrit quelque chose qui n’était pas encore tout à fait clair ou
juste. Mais s’excuser pour trois siècles d’une évolution scientifique qui était
à la base même de la philosophie des sciences et des conflits tels que les
ressentaient Kant ou Bergson, c’est quand même un événement
extraordinaire ». (7. p. 29)
Le théorème de Gödel
Parmi
les grands défis lancés à la communauté des mathématiciens au début du XXème
siècle par David Hilbert, se trouvait le problème de la consistance de la
logique. Toutes les activités humaines formalisées reposent sur une théorie des
nombres qui elle-même repose sur des axiomes qui reposent sur la logique.
Montrer que la logique était auto-consistante, c’était pour Hilbert la
« solution finale ».
En
effet, si une telle démonstration était possible, il en découlerait, comme le
montra Hilbert, qu’on pourrait (au moins en théorie) démontrer la véracité ou
la fausseté de n’importe quelle proposition logique. On voit bien là qu’il y a
une tentative d’enfermer l’esprit humain dans un déterminisme (voire un
totalitarisme) logique, comme la mécanique classique voulait enfermer le corps
humain et son environnement dans un déterminisme physique.
C’est
Kurt Gödel qui en 1931 démontra le contraire : la logique ne saurait être
à la fois complète et consistante, tout ensemble fini d’axiomes contient une
proposition indécidable. On connaissait depuis les Grecs l’existence de telles
propositions qui ne sont ni vraies ni fausses (« tous les crétois sont des
menteurs » dit un crétois. Ment-il ?). Le grand apport de Gödel a été
de montrer leur caractère inévitable dans tout système logique. Un système
logique qui serait complet serait inconsistant. Ainsi explose le carcan logique
où Hilbert voulait nous enfermer.
Mais
Gödel va plus loin encore : dans tout système d’axiomes, il existe des
propositions vraies mais dont la véracité n’est pas démontrable dans le système
en question. Comme le dit Gödel « la base de mon système repose sur l’idée
que la notion de vérité en mathématique est plus vaste que la notion de
démonstrabilité ». De quoi traumatiser bien des mathématiciens pour
lesquels ces deux notions paraissent indissolublement liées.
La biologie
évolutionniste non darwinienne
Wilson,
Dawkins et Monod basaient leur vision désenchantée du monde sur le fait que la
théorie darwinienne montre que l’évolution est un processus aveugle, ne
possédant aucun sens, ne pouvant être le vecteur d’aucun projet.
Mais
ici aussi une révolution est en cours. Contrairement aux quatre autres domaines
que nous venons de parcourir, et où les idées nouvelles sont bien implantées,
ici les conceptions réductionnistes qui sont à la base de grands projets comme
le décryptage du génome humain, sont encore largement majoritaires. Il peut y
avoir de cela une explication historique. Un décalage de près de 70 ans semble
se perpétuer depuis près de 500 ans entre les sciences de la Matière et les
sciences de la Vie. A l’époque où Newton commençait à percer les secrets de
l’Univers, les malades n’avaient pour se soigner que les « médecins de
Molière » dont la compréhension du vivant était des plus limitée.
Et
aujourd’hui les concepts classiques, qui ont déjà été réfutés dans les sciences
de la matière, se trouvent encore à la base de la biologie actuelle. Néanmoins,
l’évolution générale des sciences que nous décrivons ici nous permet de prédire
que les biologistes de plus en plus nombreux qui s’opposent à de telles
conceptions sont bien, eux aussi, les porteurs d’une révolution copernicienne
dans leur domaine.
Cette
opposition peut prendre de très nombreuses formes. Il y a ceux qui, comme
Christian de Duve et Michael Denton, affirment que la vie est un phénomène
inévitable, inscrit dans les lois de l’univers (« un impératif
cosmique » a écrit de Duve) et non un accident improbable comme le pensait
Monod.
Il y
a ceux qui remettent en question le statut de l’ADN et la toute puissance des
gènes dans le modèle actuel expliquant les phénomènes héréditaires, comme
Rosine Chandebois ou Andras Paldi.
Il y
a ceux qui montrent comme Brian Goodwin et Remy Chauvin, les limites de la
selection naturelle dont les darwiniens voudraient faire une panacée
universelle permettant d’expliquer toutes les adaptations les plus subtiles des
organismes à leur environnement.
Il y
a ceux, comme Anne Dambricourt qui mettent en lumière l’existence de processus
qui se déroulent sur le très long terme et qui semblent avoir une logique
propre, qui se situe hors d’atteinte des modifications de l’environnement.
Ainsi la cause de la bipédie se situe dans une « tendance lourde »
(une flexion des embryons de primates qui se produit toujours dans la même
direction pendant 60 millions d’années) et non dans des modifications
ponctuelles de l’environnement dans lequel vivaient les ancêtres des
australopithèques (la théorie de « l’East Side Story » liée à
l’effondrement de la Rift Valley), ce que semblent confirmer des trouvailles
récentes comme celles de l’équipe de Michel Brunet.
Tout
cela nous montre une chose : les postulats de base de la théorie
darwinienne selon lesquels les principaux facteurs qui dirigent l’évolution
sont des mutations se produisant au hasard et triées par la sélection naturelle
sont bien trop limités. Ils permettent certes d’expliquer de très nombreux
phénomènes. Mais ce qui est intéressant pour l’avenir de la biologie, c’est
justement ce qu’ils n’expliquent pas.
On se
trouve ici dans une situation semblable à celle de la mécanique newtonienne.
Celle-ci devait tout expliquer ; et certes elle semblait tout expliquer.
Parce que la recherche se concentre sur les phénomènes les plus faciles à
expliquer, cela permettant de gérer rapidement des résultats.
Dans
un deuxième temps seulement, les progrès des connaissances ont montré qu’il
existait des phénomènes plus subtils qui ne pouvaient être expliqués ainsi.
Mais alors les tenants des conceptions classiques se sont livrés à « un
tir de barrage » pour défendre le caractère universel de leurs concepts.
Nous vivons exactement une période identique en biologie où les non darwiniens
sont la cible des critiques, voire du mépris des darwiniens.
Néanmoins,
l’actualité de la recherche nous apporte sans cesse des preuves que la Vie est
un phénomène bien plus subtil que ce à quoi les tenants du darwinisme
voudraient la réduire. La plus spectaculaire est la suivante : une équipe anglo-saxonne vient de découvrir un
nouveau mécanisme génétique dans le vivant : « l’interférence de
l’ARN » ; il s’agit de minuscules fragments d’informations génétiques
présents dans les cellules sous formes d’ARN et capables d’interférer dans la
lecture de l’information biologique contenue dans l’ADN au point de désactiver
certains gênes.
Ainsi
dans le domaine des sciences du vivant aussi de nouvelles portes que l’on
croyait fermées se réouvrent, débouchant sur d’autres options philosophiques
que celles où le hasard, l’absurde et le non-sens règnent en maître.
RD
Aucun commentaire:
Enregistrer un commentaire