jeudi 12 septembre 2013

LE NOUVEAU PARADIGME SCIENTIFIQUE


http://2.bp.blogspot.com/-9XMsFny4V4w/TwlpPJKAkWI/AAAAAAAAA7s/KpIt8BL9048/s1600/space-vortex.jpg




 Qu'est ce qu'un paradigme?

Un paradigme est un système de croyance, une vision du monde, un filtre perceptuel, qui permet d'appréhender la réalité.

LE NOUVEAU PARADIGME SCIENTIFIQUE

Pour célébrer la naissance du XXème siècle, lord Kelvin (qui donna son nom à l’échelle des températures absolues) fit, en 1900, une célèbre conférence dans laquelle il affirma que la physique avait tout expliqué à l’exception de « deux petits nuages noirs » qui obscurcissaient encore le ciel limpide de la science d’alors : l’expérience de Michelson et Morlay et le rayonnement d’un corps noir quand il est chauffé. Bien que ses propos paraissent aujourd’hui absurdes, notre lord ne manquait pas d’intuition ! Car ces deux petits nuages noirs se sont transformés en deux tempêtes qui ont dévasté la vision du monde de la science classique et qui, à travers des disciplines comme la relativité générale et la mécanique quantique ont contribué à créer un nouveau paradigme.

Qu’est-ce qu’un paradigme ? C’est une conception du monde qui synthétise des éléments venus de divers domaines. Dans la première partie nous avons décrit la mise en place du « paradigme classique » qui de la Renaissance au XXème siècle a semblé expulser Dieu de l’histoire des hommes. Aujourd’hui nous avons assez de recul pour comprendre que le XXème siècle a vu émerger un nouveau paradigme.

Physique quantique

Le premier « petit nuage noir » était constitué par la structure du rayonnement d’un corps noir quand il est chauffé. Pour expliquer les résultats expérimentaux, il fallut avoir recours à l’hypothèse que l’énergie était émise par paquets (quanta) et non de manière continue, au niveau des particules élémentaires. Cette première rupture avec les concepts de la science classique mais aussi avec le sens commun (comment imaginer, à notre niveau de réalité à nous, que la température d’une pièce passe de 21 à 23 degrés sans passer, ne fut-ce qu’un instant, par 22 degrés ?) en engendra de nombreuses autres.

Einstein montra que la lumière, qui était composée d’ondes, comme l’avait démontré Young était aussi composée de particules de masse nulle, les photons. Le principe d’incertitude d’Heisenberg en démontrant qu’on ne peut à la fois connaître la position et la vitesse d’une particule porte un coup fatal au déterminisme classique. Louis de Broglie en découvrant que, comme la lumière, la matière aussi a une nature double, ondulatoire et corpusculaire, se livre à une véritable « dématérialisation de la matière ». Tous les composants fondamentaux de la matière se comportent tantôt comme des objets matériels ponctuels, tantôt comme des ondes pouvant emprunter deux trajets différents à la fois. C’est pourquoi Heisenberg dira que les particules élémentaires sont moins réelles que des choses mais plus que l’idée d’une chose. Il s’agit pourtant des bases de tout ce qui nous entoure.

Mais la révolution quantique ne s’arrête pas là. En 1935, Einstein et deux de ses collaborateurs Podolsky et Rosen, montrent que si l’on suit jusqu’au bout les prédictions de la mécanique quantique, il existe des situations où deux particules sont « non-séparables », où tout ce qui arrive à l’une se répercute instantanément sur l’autre, quel que soit la distance qui les séparent. Ce qu’Einstein, contrairement à Niels Bohr, croyait impossible à cause du caractère fini de la vitesse de la lumière. Mais à partir des années 70, et surtout avec l’expérience d’Alain Aspect en 1983, les évidences s’accumulèrent. Aujourd’hui personne ne met en doute l’existence de ce lien mystérieux entre deux particules qui semble transcender le temps et l’espace.

Sachant tout cela on peut apprécier la boutade de Niels Bohr : « Celui qui n’est pas horrifié par la mécanique quantique lorsqu’il la découvre ne l’a certainement pas comprise ».

Relativité et théorie du Big Bang

L’autre « petit nuage noir » qui inquiétait notre lord était l’expérience de Michelson et Morley. Le résultat de celle-ci ne fut expliqué qu’en 1905 lorsque Einstein produisit sa théorie de la relativité restreinte. Dans le vide, la vitesse de la lumière est constante. Donc si une fusée va à une vitesse x et émet un rayon de lumière allant à la vitesse c, le rayon, pour un observateur, n’ira pas à la vitesse c + x mais à la vitesse c. Comme en mécanique quantique, nous trouvons à la base de cette deuxième révolution une idée totalement contre-intuitive et qui prend le contre-pied des concepts classiques. Et, ici aussi, cela ne fait que commencer. La fameuse équation E=MC2 implique la possibilité de transformer en objet les propriétés d’un objet. Ainsi les quantités de mouvements de deux particules élémentaires qui entrent en collisions vont contribuer à créer une nouvelle particule.

Avec la relativité générale, l’espace n’est plus euclidien, il met fin à une certitude vieille de 2000 ans. Le chemin le plus court entre deux points dans la galaxie n’est plus une ligne droite car le temps, la matière et l’énergie sont imbriqués et les masses courbent l’espace qui les environne.

Le temps et l’espace n’étant plus des absolus, ils peuvent avoir une origine. C’est ainsi que l’idée d’un « Big Bang », d’un commencement du temps et de l’espace, peut se déduire logiquement de la relativité. Einstein qualifiera plus tard de « plus grande erreur de sa vie » le fait de ne pas avoir eu l’audace de suivre sa théorie jusqu’au bout et d’avoir laissé le russe Friedmann et le belge Lemaître poser à sa place les bases de la théorie du Big Bang. Théorie qui elle aussi prend complètement à contre-pied des conceptions établies depuis 2500 ans qui, à la suite d’Aristote, affirmaient que l’univers était éternel.

Dans les années 1970, la théorie du Big Bang donna naissance à un domaine d’étude encore plus provoquant pour les concepts classiques, le principe anthropique. Avec les moyens informatiques modernes, il est possible de modéliser l’évolution de l’univers et l’impact de telle ou telle variable sur cette évolution. Il est ainsi possible de créer des univers virtuels où la masse du proton, la constante de gravitation ou la vitesse de la lumière sont différentes. Et l’on se rend compte que dans la quasi totalité des cas les univers ayant des caractéristiques différentes du nôtre ne peuvent se développer de façon à permettre l’apparition de la vie et de la conscience.

Il est aisé d’expliquer ce fait si l’on postule l’existence d’une infinité d’univers parallèles, tous déconnectés les uns des autres : nous sommes par hasard dans le seul ayant les bonnes constantes. Mais s’il n’existe qu’un univers (ou un petit nombre), alors la question du sens de notre existence redevient, contrairement à ce qu’imaginaient Monod et Weinberg, une question qui se pose au cœur même de la science, étant donné l’existence de ce « réglage » très précis des constantes fondamentales de notre univers.

Théorie du chaos et phénomènes non linéaires

Pendant longtemps, on a cru, à la suite de Newton, que les systèmes dynamiques représentaient la forteresse du déterminisme. Mais dès le début du XXème siècle Henri Poincaré démontra que les interactions d’un système à trois corps ne peuvent être prédites dans le long terme. Ce fut le début d’une révolution qui amena de plus en plus de scientifiques, à la suite des travaux d’Ilya Prigogine, entre autres, à s’intéresser à des phénomènes non-linéaires, où une petite modification des conditions initiales provoque une grande divergence des résultats finaux du processus. Ainsi en est-il du fameux « effet papillon » selon lequel un battement d’ailes de papillon en Australie peut provoquer une tempête trois semaines plus tard en Californie.

Car l’atmosphère est un système instable et profondément non linéaire, ce qui rend justement imprédictible son évolution à long terme. La théorie du chaos nous fait ainsi entrer dans un monde probabiliste. Il y a là selon Ilya Prigogine « une seconde révolution copernicienne qui nous donne une image bien plus complexe du monde qui nous entoure et dans laquelle le problème de l’impact de l’homme sur son environnement est aussi beaucoup plus compliqué à cerner, parce que la nature n’est pas quelque chose de stable, de tranquille, de permanent » (7. p. 28).

Et comme nous y avons fait allusion avec « le problème des trois corps » de Poincaré, ce mouvement touche aussi les systèmes newtoniens, au point que Sir James Lighthill, Président de l’Union Internationale de mécanique pure et appliquée, a pu écrire à la fin des années 80 qu’il s’excusait au nom de ses collègues et de lui-même d’avoir propagé pendant trois siècles l’idée inexacte que les systèmes newtoniens étaient déterministes.
Comme le dit encore Prigogine « Chacun de nous doit s’excuser de temps en temps pour avoir écrit quelque chose qui n’était pas encore tout à fait clair ou juste. Mais s’excuser pour trois siècles d’une évolution scientifique qui était à la base même de la philosophie des sciences et des conflits tels que les ressentaient Kant ou Bergson, c’est quand même un événement extraordinaire ». (7. p. 29)

Le théorème de Gödel

Parmi les grands défis lancés à la communauté des mathématiciens au début du XXème siècle par David Hilbert, se trouvait le problème de la consistance de la logique. Toutes les activités humaines formalisées reposent sur une théorie des nombres qui elle-même repose sur des axiomes qui reposent sur la logique. Montrer que la logique était auto-consistante, c’était pour Hilbert la « solution finale ».

En effet, si une telle démonstration était possible, il en découlerait, comme le montra Hilbert, qu’on pourrait (au moins en théorie) démontrer la véracité ou la fausseté de n’importe quelle proposition logique. On voit bien là qu’il y a une tentative d’enfermer l’esprit humain dans un déterminisme (voire un totalitarisme) logique, comme la mécanique classique voulait enfermer le corps humain et son environnement dans un déterminisme physique.

C’est Kurt Gödel qui en 1931 démontra le contraire : la logique ne saurait être à la fois complète et consistante, tout ensemble fini d’axiomes contient une proposition indécidable. On connaissait depuis les Grecs l’existence de telles propositions qui ne sont ni vraies ni fausses (« tous les crétois sont des menteurs » dit un crétois. Ment-il ?). Le grand apport de Gödel a été de montrer leur caractère inévitable dans tout système logique. Un système logique qui serait complet serait inconsistant. Ainsi explose le carcan logique où Hilbert voulait nous enfermer.

Mais Gödel va plus loin encore : dans tout système d’axiomes, il existe des propositions vraies mais dont la véracité n’est pas démontrable dans le système en question. Comme le dit Gödel « la base de mon système repose sur l’idée que la notion de vérité en mathématique est plus vaste que la notion de démonstrabilité ». De quoi traumatiser bien des mathématiciens pour lesquels ces deux notions paraissent indissolublement liées.

La biologie évolutionniste non darwinienne

Wilson, Dawkins et Monod basaient leur vision désenchantée du monde sur le fait que la théorie darwinienne montre que l’évolution est un processus aveugle, ne possédant aucun sens, ne pouvant être le vecteur d’aucun projet.

Mais ici aussi une révolution est en cours. Contrairement aux quatre autres domaines que nous venons de parcourir, et où les idées nouvelles sont bien implantées, ici les conceptions réductionnistes qui sont à la base de grands projets comme le décryptage du génome humain, sont encore largement majoritaires. Il peut y avoir de cela une explication historique. Un décalage de près de 70 ans semble se perpétuer depuis près de 500 ans entre les sciences de la Matière et les sciences de la Vie. A l’époque où Newton commençait à percer les secrets de l’Univers, les malades n’avaient pour se soigner que les « médecins de Molière » dont la compréhension du vivant était des plus limitée.

Et aujourd’hui les concepts classiques, qui ont déjà été réfutés dans les sciences de la matière, se trouvent encore à la base de la biologie actuelle. Néanmoins, l’évolution générale des sciences que nous décrivons ici nous permet de prédire que les biologistes de plus en plus nombreux qui s’opposent à de telles conceptions sont bien, eux aussi, les porteurs d’une révolution copernicienne dans leur domaine.

Cette opposition peut prendre de très nombreuses formes. Il y a ceux qui, comme Christian de Duve et Michael Denton, affirment que la vie est un phénomène inévitable, inscrit dans les lois de l’univers (« un impératif cosmique » a écrit de Duve) et non un accident improbable comme le pensait Monod.

Il y a ceux qui remettent en question le statut de l’ADN et la toute puissance des gènes dans le modèle actuel expliquant les phénomènes héréditaires, comme Rosine Chandebois ou Andras Paldi.

Il y a ceux qui montrent comme Brian Goodwin et Remy Chauvin, les limites de la selection naturelle dont les darwiniens voudraient faire une panacée universelle permettant d’expliquer toutes les adaptations les plus subtiles des organismes à leur environnement.

Il y a ceux, comme Anne Dambricourt qui mettent en lumière l’existence de processus qui se déroulent sur le très long terme et qui semblent avoir une logique propre, qui se situe hors d’atteinte des modifications de l’environnement. Ainsi la cause de la bipédie se situe dans une « tendance lourde » (une flexion des embryons de primates qui se produit toujours dans la même direction pendant 60 millions d’années) et non dans des modifications ponctuelles de l’environnement dans lequel vivaient les ancêtres des australopithèques (la théorie de « l’East Side Story » liée à l’effondrement de la Rift Valley), ce que semblent confirmer des trouvailles récentes comme celles de l’équipe de Michel Brunet.

Tout cela nous montre une chose : les postulats de base de la théorie darwinienne selon lesquels les principaux facteurs qui dirigent l’évolution sont des mutations se produisant au hasard et triées par la sélection naturelle sont bien trop limités. Ils permettent certes d’expliquer de très nombreux phénomènes. Mais ce qui est intéressant pour l’avenir de la biologie, c’est justement ce qu’ils n’expliquent pas.

On se trouve ici dans une situation semblable à celle de la mécanique newtonienne. Celle-ci devait tout expliquer ; et certes elle semblait tout expliquer. Parce que la recherche se concentre sur les phénomènes les plus faciles à expliquer, cela permettant de gérer rapidement des résultats.

Dans un deuxième temps seulement, les progrès des connaissances ont montré qu’il existait des phénomènes plus subtils qui ne pouvaient être expliqués ainsi. Mais alors les tenants des conceptions classiques se sont livrés à « un tir de barrage » pour défendre le caractère universel de leurs concepts. 

Nous vivons exactement une période identique en biologie où les non darwiniens sont la cible des critiques, voire du mépris des darwiniens.

Néanmoins, l’actualité de la recherche nous apporte sans cesse des preuves que la Vie est un phénomène bien plus subtil que ce à quoi les tenants du darwinisme voudraient la réduire. La plus spectaculaire est la suivante : une équipe anglo-saxonne vient de découvrir un nouveau mécanisme génétique dans le vivant : « l’interférence de l’ARN » ; il s’agit de minuscules fragments d’informations génétiques présents dans les cellules sous formes d’ARN et capables d’interférer dans la lecture de l’information biologique contenue dans l’ADN au point de désactiver certains gênes.

Ainsi dans le domaine des sciences du vivant aussi de nouvelles portes que l’on croyait fermées se réouvrent, débouchant sur d’autres options philosophiques que celles où le hasard, l’absurde et le non-sens règnent en maître.

RD

Aucun commentaire:

Enregistrer un commentaire