257
Académie des Sciences morales et politiques - http://www.asmp.fr Introduction par Bernard d’Espagnat Les découvertes scientifiques du XX e siècle ébranlent aujourd’hui sérieusement les assises conceptuelles, non seulement de l’humanisme traditionnel des Érasme et des Budé mais également de l’ontologie des Galilée, Descartes et Newton. Un grand effort de quête de cohérence est nécessaire. La tâche dépasse les possibilités d’un individu ou d’une compagnie mais ce n’est pas une raison pour se détourner du problème. Loin de se prendre pour un aréopage, notre groupe de travail se voit comme étant essentiellement un lieu de rencontre entre personnes intéressées par telle ou telle grande question, ayant à son sujet des opinions motivées et désirant les comparer. Contrairement à la science du XIX e siècle, qui paraissait nettement favoriser telles opinions philosophiques relativement à telles autres, celle qui s’est développée au XX e siècle est riche en perspectives diverses, et c’est, pour une bonne part, la mise en parallèle de celles-ci qu’il a été jugé utile de tenter. C’est donc dans un esprit d’échange d’arguments entre personnes compétentes nourrissant des vues parfois différentes que sont conduits les entretiens. Et, l’objet de leurs comptes-rendus — dont voici le premier cahier — est de contribuer à faire mieux connaître cette réactualisation par la science contemporaine de problèmes conceptuels fondamentaux. Vu leur faible volume et l’étendue des thèmes, il va de soi qu’ils ne sauraient se substituer à des analyses exhaustives des points abordés. En conséquence, je demande qu’on les considère, avant tout, comme une fenêtre ouverte sur des questions philosophiques que des scientifiques se posent relativement à leur savoir. Les comptes-rendus en question, en plus d’être disponibles sur Internet, seront publiés en plusieurs cahiers. Celui que l’on a sous les yeux rapporte le contenu des trois premières réunions, qui ont concerné, respectivement, la notion de temps en relativité, la notion de chaos et la fameuse question du principe anthropique, en ses deux versions « forte » et « faible ». Elles n’ont pu aborder que tels ou tels aspects de chacun de ces thèmes, mais il est permis d’espérer que, dans le domaine des questions traitées, les textes ici présentés permettront au lecteur d’affiner quelque peu ses propres « bases de données ». Le cahier suivant portera principalement sur les épineux problèmes relatifs à l’interprétation de la mécanique quantique. Le présent document laisse, à dessein, une large place aux débats postérieurs aux interventions car leur exposé donne un juste aperçu, aussi bien de la complexité des questions d’ordre conceptuel qui agitent les chercheurs actuels que de la diversité des réponses qu’ils prennent en considération à leur égard. Je remercie tous ceux, dont les noms figurent en annexe, qui participèrent à ces échanges. Enfin, j’adresse un grand merci à Jean Staune pour sa gestion aussi efficace que compétente des interventions et à Alessia Weil pour sa précieuse contribution à la collecte des documents et à la mise en forme du manuscrit.

Colloque Sur Science

Embed Size (px)

Citation preview

Page 1: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

Introduction

par Bernard d’Espagnat

Les découvertes scientifiques du XXe siècle ébranlent aujourd’hui sérieusementles assises conceptuelles, non seulement de l’humanisme traditionnel des Érasme et desBudé mais également de l’ontologie des Galilée, Descartes et Newton. Un grand effort dequête de cohérence est nécessaire.

La tâche dépasse les possibilités d’un individu ou d’une compagnie mais ce n’estpas une raison pour se détourner du problème. Loin de se prendre pour un aréopage,notre groupe de travail se voit comme étant essentiellement un lieu de rencontre entrepersonnes intéressées par telle ou telle grande question, ayant à son sujet des opinionsmotivées et désirant les comparer. Contrairement à la science du XIXe siècle, quiparaissait nettement favoriser telles opinions philosophiques relativement à tellesautres, celle qui s’est développée au XXe siècle est riche en perspectives diverses, et c’est,pour une bonne part, la mise en parallèle de celles-ci qu’il a été jugé utile de tenter.

C’est donc dans un esprit d’échange d’arguments entre personnes compétentesnourrissant des vues parfois différentes que sont conduits les entretiens. Et, l’objet deleurs comptes-rendus — dont voici le premier cahier — est de contribuer à faire mieuxconnaître cette réactualisation par la science contemporaine de problèmes conceptuelsfondamentaux. Vu leur faible volume et l’étendue des thèmes, il va de soi qu’ils nesauraient se substituer à des analyses exhaustives des points abordés. En conséquence,je demande qu’on les considère, avant tout, comme une fenêtre ouverte sur des questionsphilosophiques que des scientifiques se posent relativement à leur savoir.

Les comptes-rendus en question, en plus d’être disponibles sur Internet, serontpubliés en plusieurs cahiers. Celui que l’on a sous les yeux rapporte le contenu des troispremières réunions, qui ont concerné, respectivement, la notion de temps en relativité, lanotion de chaos et la fameuse question du principe anthropique, en ses deux versions« forte » et « faible ». Elles n’ont pu aborder que tels ou tels aspects de chacun de cesthèmes, mais il est permis d’espérer que, dans le domaine des questions traitées, lestextes ici présentés permettront au lecteur d’affiner quelque peu ses propres « bases dedonnées ». Le cahier suivant portera principalement sur les épineux problèmes relatifs àl’interprétation de la mécanique quantique.

Le présent document laisse, à dessein, une large place aux débats postérieurs auxinterventions car leur exposé donne un juste aperçu, aussi bien de la complexité desquestions d’ordre conceptuel qui agitent les chercheurs actuels que de la diversité desréponses qu’ils prennent en considération à leur égard. Je remercie tous ceux, dont lesnoms figurent en annexe, qui participèrent à ces échanges. Enfin, j’adresse un grandmerci à Jean Staune pour sa gestion aussi efficace que compétente des interventions et àAlessia Weil pour sa précieuse contribution à la collecte des documents et à la mise enforme du manuscrit.

Page 2: Colloque Sur Science

Liste des participants

Jean-Michel AlimiChercheur au CNRS, astrophysicien (Observatoire de Meudon), spécialiste deCosmologie. Auteur d’une centaine de publications dans des revues scientifiquesinternationales. A participé aux “Sciences du Ciel” ouvrage publié sous la direction de P.Lena (Flammarion). A publié (en coll.): Quand la science a dit… C’est impossible ! (LePommier).

Jacques ArsacProfesseur émérite des universités, informaticien, membre correspondant de l’Académiedes Sciences, spécialiste des méthodes de programmation et des problèmes relatifs à lanotion d’intelligence artificielle. Auteur de : Les machines à penser : des ordinateurs etdes hommes (1987) ; La science et le sens de la vie (1993).

Michel BitbolChercheur au CNRS et chargé de cours à l’Université Paris I, philosophe, spécialiste del’épistémologie de la mécanique quantique. Auteur de : Mécanique quantique, uneintroduction philosophique (Flammarion), L’aveuglante proximité du réel (Flammarion),Schrödinger’s philosophy of Quantum Mechanics (Kluwer), Physique et Philosophie del’esprit (Flammarion).

Éric BoisAstronome à l’Observatoire de Bordeaux, spécialiste de l’étude des conditions de stabilitédes systèmes planétaires et plus généralement d’astro-dynamique non linéaire. Co-fondateur du laboratoire EPISTEME de l’Université de Bordeaux I. Outre ses travaux enastrophysique, articles de fond concernant la causalité physique, la signification duchaos et la problématique de l’origine de l’Univers.

Jean BricmontPhysicien théoricien, Institut de Physique théorique de l’Université catholique deLouvain. Spécialiste des théories ontologiquement interprétables rivales de« l’interprétation de Copenhague » de la mécanique quantique. A développé une critiqueargumentée de la conception « post-moderniste » de la science. Auteur, avec Alan Sokal,de Impostures intellectuelles (Odile Jacob).

Anne DambricourtChargé de recherche au CNRS, paléo-anthropologue, ancien membre du Conseil nationaldes Universités (CNU), secrétaire générale de la Fondation Teilhard de Chardin.Spécialiste de l’étude du processus de d'hominisation cranio-faciale.

Bernard d’EspagnatProfesseur émérite à l’Université Paris XI - Orsay, membre de l’Institut. Spécialiste del’épistémologie de la mécanique quantique. Auteur de : Conceptual Foundations ofQuantum Mechanics (Perseus Books, USA), A la recherche du réel (Presse-Pocket), Unatome de sagesse (Le Seuil), Une incertaine réalité (Dunod), Penser la science (Dunod), Leréel voilé (Fayard) et Ondine et les feux du savoir (Stock).

Page 3: Colloque Sur Science

Bruno GuiderdoniChercheur au CNRS, astrophysicien (Institut d’Astrophysique de Paris). Spécialiste desprocessus de formation et d’évolution des galaxies. Auteur de plus de 90 publicationsscientifiques. Prépare un ouvrage sur la formation des galaxies.

Lucien IsraëlProfesseur émérite à l’Université de Paris XIII, membre de l’Institut, cancérologue.Président fondateur du Laboratoire d’oncologie cellulaire et moléculaire humaine (ParisXIII Bobigny). Auteur de plus de 550 publications scientifiques ainsi que (entre autresouvrages) de : La décision médicale (1980), La vie jusqu’au bout (1992) et Cerveau droit,cerveau gauche, cultures et civilisations (1995), Destin du cancer (1997).

Jean KovalevskyAstronome, membre de l’Académie des Sciences, membre du Bureau des Longitudes etde l’Académie internationale d’Astronautique, président du comité international desPoids et Mesures. Spécialiste de mécanique céleste, d’astrométrie et de géodésie spatiale,responsable du consortium international pour le traitement des données du satelliteHipparcos. Ouvrage d’intérêt général : Introduction à la Mécanique céleste (Reidel) ;Astrométrie moderne (Springer).

Jean-François LambertMaître de Conférences à l’Université de Paris VIII, Directeur adjoint du Laboratoire dePsychobiologie environnementale de l’Université de Paris V. Psychophysiologiste.Spécialiste de l’étude des corrélats neurobiologistes de la conscience et de l’épistémologiedes sciences cognitives. Auteur de près de 50 publications scientifiques.

Dominique LaplaneMédecin neurologue, professeur à la faculté, membre de la Société française deNeurologie. Auteur (entre autres ouvrages) de La mouche dans le bocal, essai sur laliberté de l’homme neuronal (1987) et de La pensée d’outre-mots. La pensée sans langageet la relation pensée langage, éd. Les empêcheurs de penser en rond (1997).

François LurçatProfesseur émérite à l’Université Paris XI – Orsay, physicien théoricien. Spécialiste del’épistémologie de la physique quantique et particulièrement de la pensée de Niels Bohr.Ouvrages d’intérêt général : Niels Bohr (Criterion), L’autorité de la science (Éd. du Cerf),Le chaos (PUF, coll. "Que sais-je ?"), La science suicidaire (F.X. de Guibert).

Basarab NicolescuChercheur au CNRS (Institut de Physique Nucléaire, Université de Paris XI – Orsay),physicien théoricien. Spécialiste de l’épistémologie de la mécanique quantique, présidentdu Centre international de Recherches transdisciplinaires. Auteur (entre autresouvrages) de Nous, la particule et le monde (Le Mail) et de La transdisciplinarité (Ed. duRocher).

Pierre PerrierIngénieur de l’Aéronautique, Sous-Directeur à la Division des Études avancées (Dassaultaviation), membre correspondant de l’Académie des Sciences, Secrétaire de l'Académiedes technologies. Spécialiste de la modélisation et des systèmes complexes. Auteur denombreuses publications en mécanique des fluides numérique, aérodynamique etanalyse numérique, ainsi qu'en anthropologie orientale.

Page 4: Colloque Sur Science

Gérard PetitAstronome, Bureau international des Poids et Mesures, Pavillon de Breteuil à Sèvres.Spécialiste de la mesure précise des intervalles de temps en astronomie (pulsars) et de laréalisation d’échelles de temps ayant une précision mettant en jeu la relativité.

Trinh Xuan ThuanAstrophysicien, professeur à l’Université de Virginie, U.S.A. Spécialiste de la formationdes galaxies et de la problématique concernant le principe anthropique. Ouvragesd’intérêt général : La mélodie secrète (Fayard), Le chaos et l’harmonie (Fayard), etL’infini dans la paume de la main (en coll., Fayard).

Jacques VauthierProfesseur à l’Université de Paris VI, mathématicien, auteur d’un Cours de philosophiedes sciences professé à l’Université Pierre et Marie Curie en 1999-2000. Partisan d’unrapprochement raisonné entre science et philosophie. S’intéresse aux implicationsmétaphysiques des mathématiques.

Hervé ZwirnIngénieur civil des télécommunications, docteur ès sciences physiques et chercheurassocié à l’Institut d’histoire et de philosophie des sciences et des techniques del’Université de Paris I. Spécialiste de l’épistémologie de la mécanique quantique. Auteurde : Les limites de la connaissance (Odile Jacob).

Secrétaire-Rapporteur, Jean StauneConsultant, organisateur de colloques Science et Management ; fondateur et secrétairegénéral de l’U.I.P (Université Interdisciplinaire de Paris). Auteur de L’homme face à lascience (en coll., 1992).

Page 5: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

Le chaos et l'Occident

par François Lurçat*

Qu'est-ce que le chaos ?

Le chaos, c'était pour les Grecs l'abîme, "un espace d'errance indéfinie, dechute ininterrompue"1. Le chaos, dans son sens familier aujourd'hui, c'est ledésordre et la violence, mais aussi l'inintelligibilité, l'impossibilité de trouverdans un phénomène ou dans une situation des indices qui permettraient des'orienter et de comprendre. Enfin dans le sens scientifique que le mot a prisdepuis un quart de siècle, il s'agit de l'instabilité et de ses conséquences. Lesrecherches sur ce thème furent longtemps confidentielles, ignorées ouméconnues sauf des spécialistes qui les poursuivaient chacun dans son domaine.

Depuis quelques décennies, il s'est produit un de ces phénomènes de fouledont notre époque n'est pas avare : le chaos est devenu à la mode en tant quemot de passe, thème unificateur de domaines scientifiques très divers. Dans unelarge mesure, il s'agit d'une mode légitime : elle a donné lieu à nombre detravaux scientifiques, souvent pertinents ou même de grande valeur.

Mais aussi, le mot "chaos" a donné lieu à des spéculations plus ou moinssérieuses, parfois échevelées, dont il me faudra parler car elles constituentl'essentiel de la réception que les sociétés occidentales ont réservée à la galaxiede découvertes désignées par le terme global de chaos. Dans le temps qui m'estimparti, je m'efforcerai donc de répondre aux questions suivantes : quelle estl'origine historique du chaos ? Quel est son contenu rationnel ? Commentcomprendre, enfin, la manière dont il a été interprété ?

Newton et ses successeurs

Mon exposé suivra en gros l'ordre chronologique. La clé d'unecompréhension du chaos, tant du point de vue physique et mathématique que dupoint de vue de l'histoire des idées, se trouve d'abord chez Newton. Étudiant lesmouvements des planètes et de la Lune, Newton commence par renoncer à cequ'avaient cherché ses prédécesseurs jusqu'à Kepler inclusivement : uneexplication totale de la forme et des mouvements du système solaire. Newtonn'explique ni le nombre des planètes connues à son époque, ni les valeurs deleurs distances respectives au Soleil. Quel est alors le cœur, le noyau essentiel deses découvertes ? La position d'une planète donnée à un instant donné, ainsi quesa vitesse à cet instant, sont appelées les conditions initiales ; la dynamiquefondée par Newton ne les explique ni ne les prédit, elle les considère comme desdonnées pures et simples. En revanche, elle permet de répondre à la question :étant données les conditions initiales à un certain instant, quel sera le

* L.P.T., B. 211, Université Paris XI, 91405 Orsay Cedex.1 J.-P.Vernant, article "Cosmogoniques (mythes)", dans le Dictionnaire des mythologies, dir. Y. Bonnefoy,Paris (Flammarion).

Page 6: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

mouvement ultérieur ? Le moyen de cette réponse s'appelle la loi du mouvement ;sa forme mathématique est le calcul différentiel, créé par Newton précisémentpour résoudre ce problème, et aussi par Leibniz dans un contexte différent.

La dynamique newtonienne va donner du grain à moudre auxmathématiciens et aux astronomes pendant des siècles ; dès qu'on envisage lesystème solaire dans sa complexité, en effet (dès qu'on tient compte, tout d'abord,du fait qu'il y a plusieurs planètes), on se trouve confronté à des problèmesmathématiques très difficiles.

Pendant toute la période classique de la mécanique céleste, c'est-à-dire engros jusqu'au début du XXe siècle, ces problèmes se traitent essentiellement parle calcul. Lagrange, Laplace, Le Verrier et d'autres noircissent des pages et despages de calculs minutieux ; ils parviennent à rendre compte de particularitésde plus en plus fines du mouvement des planètes et de la Lune. Le progrèsscientifique dans ce domaine, comme dans les autres domaines des sciencesphysiques aux XVIIIe et XIXe siècles, a toutes les apparences d'une marchetriomphale.

L'influence de Newton

Les contemporains et les successeurs de Newton ont pour lui uneadmiration éperdue, qui confine souvent à l'idolâtrie. Son œuvre exerce uneinfluence déterminante sur les sciences physiques et mathématiques, mais aussisur la pensée philosophique et politique. Je ne prendrai qu'un seul exemple. Unouvrage récemment paru en France2 nous permet de faire connaissance avecJean-Théophile Desaguliers (1683-1744), physicien, philosophe et juriste. Néhuguenot à La Rochelle, chassé de France avec son père dans son jeune âge,Desaguliers fait ses études à Oxford, puis entre dans les ordres de l'Égliseanglicane. Il complète ses études par une formation juridique et devient en 1718docteur en droit de l'université d'Oxford. Dans le prolongement de la penséephilosophique du XVIIe siècle anglais, il se passionne pour l'œuvre de Newtondont il devient le disciple. Il publie en 1727 un poème allégorique en anglaisintitulé Le Système newtonien du monde : meilleur modèle de gouvernement, danslequel il expose l'essentiel de sa pensée politique. Il s'agit pour Desaguliers, quiest un membre éminent de la franc-maçonnerie, de trouver dans le « système dumonde » newtonien la justification du concept de liberté politique.

Dans le système solaire newtonien, qui pour la pensée de l'époqueconstitue la totalité du monde matériel, le Créateur n'intervient pas : sesmouvements se déroulent harmonieusement, en toute autonomie par rapport àDieu. Notre juriste s'attaque à la position de la théologie anglicane selon laquellele corps politique du Roi et ses attributs juridiques prennent leur source dans ledroit divin. Le système solaire peut fonctionner tout seul, sans nécessiterd'intervention divine. Si les planètes poursuivent, toutes seules, leursmouvements harmonieux en suivant les lois découvertes par le grand physicien, 2 Pierre Boutin, Jean-Théophile Desaguliers, traduction et commentaire de The Newtonian System of theWorld. The Best Model of Government, Paris (Honoré Champion), 1999.

Page 7: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

pourquoi ne pas découvrir des lois (au sens politique et juridique de ce terme) quipermettraient au gouvernement de fonctionner lui aussi par lui-même, sans êtresubordonné au pouvoir religieux ?3

Laplace et le déterminisme

Un siècle plus tard la fascination exercée par l'extraordinaire exploitscientifique de Newton ne se dément pas. Le comte de Saint-Simon (1760-1825),penseur utopiste, annonce une nouvelle religion : la religion de Newton4, dont ilprévoit les rites dans les moindres détails. Si cette initiative semble bien oubliéeaujourd'hui, il n'en va pas de même pour la pensée de Pierre Simon de Laplace(1749-1827) qui a formulé avec une force remarquable l'idéal d'un déterminismetotal. Dans son Essai philosophique sur les probabilités (1795), il se livre à uneextrapolation audacieuse des résultats de Newton, ou plutôt d'un aspect bienparticulier de ces résultats : ce qu'on peut appeler le déterminismemathématique, c'est-à-dire le fait que si un système physique obéissaitexactement aux lois de la dynamique newtonienne, la donnée de conditionsinitiales déterminerait toute la suite de son mouvement. Cette formulationprudente n'est certes pas celle de Laplace, qui pour sa part ne craignait pasd'écrire ceci :

« Nous devons donc envisager l'état présent de l'univers comme l'effetde son état antérieur, et comme la cause de ce qui va suivre. Uneintelligence qui pour un instant donné connaîtrait toutes les forcesdont la nature est animée et la situation respective des êtres qui lacomposent, si d'ailleurs elle était assez vaste pour soumettre cesdonnées à l'analyse, embrasserait dans la même formule lesmouvements des plus grands corps de l'univers et ceux du plus légeratome : rien ne serait incertain pour elle, et l'avenir comme le passéserait présent à ses yeux. L'esprit humain offre, dans la perfection qu'ila su donner à l'Astronomie, une faible esquisse de cette intelligence »5.

On ne saurait accorder trop d'importance à ce texte ; des citations répétées ne l'ont pasusé, car l'idéal qu'il exprime a survécu à toutes les objections, à toutes les réfutationsrationnelles.

La doctrine classique de la science

Je ne pouvais pas faire l'économie de cette longue introduction. Pour comprendrel'importance du chaos, tant du point de vue strictement scientifique que du point de vue del'histoire des mentalités, il fallait avoir présente à l'esprit l'idée de l'œuvre newtonienne, tantdans son contenu physique essentiel que dans ses effets sur les représentations collectives.Ces effets ont été très considérables : on peut dire que Newton est un des grands fondateurs

3 Voir la longue et savante introduction de P. Boutin au poème de Desaguliers, op. cit., en particulier pp. 15,39, 69, 125.4 Voir Lucian Boia, La mythologie scientifique du communisme, Paris (Les Belles Lettres), 2000, pp. 27-28. Jecite Saint-Simon d'après Boia.5 P.-S. Laplace, Essai philosophique sur les probabilités (1795; 5e éd., 1825). Rééd. Paris (Christian Bourgois),1986, pp. 32-33. Voir F. Lurçat, Le chaos, Paris (PUF, coll. « Que sais-je ? »), 1999, p. 111.

Page 8: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

de l'Occident moderne, avec ses certitudes métaphysiques, sa confiance en sa force et en salégitimité, sa croyance au déterminisme et en la toute-puissance de la science. Mais aussi,avec les théories politiques et juridiques des Lumières, qui jouent encore aujourd'hui, malgrétout, un rôle si important.

Du point du vue scientifique, les succès étonnants de la pensée physiqueissue de Newton semblaient justifier une doctrine de la science qui se résumeainsi : nous connaissons déjà l'essentiel. Newton avait pu expliquer les lois dumouvement des planètes découvertes par Kepler à l'aide de sa dynamique et desa loi d'attraction universelle. Pour cela, il avait fait une approximation, c'est-à-dire une erreur délibérée : chaque planète était censée se mouvoir comme si elleétait seule avec le Soleil. Autrement dit, on négligeait la force d'attraction quecette planète subit de la part des autres planètes : on ne prenait en considérationque celle — beaucoup plus grande — qu'elle subit de la part du Soleil. Le travaildes successeurs de Newton dans ce domaine avait consisté essentiellement àdépasser l'approximation keplérienne par des corrections de plus en plus fines.Mais tout le monde admettait implicitement que ces corrections ne pouvaient enaucun cas modifier le caractère fondamental du mouvement. Les systèmesdynamiques les plus simples, comme la planète keplérienne unique tournantautour du Soleil, étaient considérés comme typiques. Les lois de la nature étaientsimples : toute complexité ne pouvait être qu'apparente et devait tôt ou tard serésoudre en simplicité. L'adage ancien simplex sigillum veri, le simple est lesceau du vrai, était brillamment confirmé par le newtonianisme. Ledéterminisme n'était pas un simple constat empirique : il apparaissait comme lacondition de possibilité de la science.

La remarque de Maxwell

L'histoire du chaos, c'est d'abord l'histoire de la remise en cause de cetteconception classique de la dynamique, qui n'est certes pas réduite à néant maisdont les prétentions à l'exactitude absolue et à l'universalité sont réfutées par ledéveloppement même de la science. Et je suis obligé, après mûre réflexion,d'ajouter : l'histoire du chaos, c'est aussi l'histoire de l'incapacité de la penséeoccidentale de faire face d'une manière adéquate à cette réfutation. Mais laissonsles affirmations a priori, et revenons aux faits historiques et scientifiques. JamesClerk Maxwell (1831-1879) est l'un des physiciens les plus importants du XIXe

siècle ; ce que Newton avait fait pour la dynamique, il l'a fait pour lesphénomènes électromagnétiques. En 1876-1877, il rend publiques desconsidérations sur le déterminisme qui montrent les limites de validité de laconception laplacienne6. Que signifie, demande-t-il, le principe physique généralselon lequel « Les mêmes causes produisent toujours les mêmes effets " ? Enréalité, chaque événement ne peut se produire qu'une seule fois ; la « maximegénérale de la science physique » ne peut donc vouloir dire que ceci : si les causesne diffèrent que par le temps et le lieu, il en est de même des effets. Oui, maisune identité absolue des causes en des temps ou des lieux différents n'est paspossible : il y aura toujours un détail, si minuscule soit-il, qui ne sera pas tout à

6 J.C.Maxwell, Matter and Motion, 1876 ; rééd. Dover, 1952.

Page 9: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

fait le même. Il faut donc dire plutôt : des causes semblables produisent des effetssemblables. C'est-à-dire qu'un petit changement dans les causes ne peut produirequ'un petit changement dans les effets. Ce principe est-il toujours vrai ? Le senscommun, et aussi la sagesse des nations, répondent : non, pas toujours. Fauted'un clou, la bataille fut perdue... Pour rester dans la physique : un crayon bientaillé et parfaitement symétrique pourrait (si la réalité physique consentait às'identifier aux concepts mathématiques) tenir en équilibre sur sa pointe,indéfiniment. Mais cet équilibre serait instable : le moindre souffle d'air feraittomber le crayon. Il y a des exemples plus réalistes, mais ils sont moins simples.L'important est que la stabilité de l'équilibre, ou aussi bien celle du mouvementne vont pas de soi ; elles ne sont pas toujours réalisées. Certains équilibres,certains mouvements sont stables ; d'autres équilibres, d'autres mouvements sontinstables. Telle est la remarque de Maxwell.

Le refus du hasard

Cette remarque était très simple, et pourtant il fallut bien longtemps pourque son importance soit reconnue. Sans contester leur existence, les physiciens etles mathématiciens commencèrent par traiter les phénomènes d'instabilitécomme des parias : il fallait, pensait-on, s'abstenir de les considérer si on nevoulait avoir affaire qu'à ce qu'on appelle des « problèmes bien posé ». Tel était lepoint de vue exprimé, par exemple, par Pierre Duhem (1861-1916), physicien,historien de la science et philosophe, ou encore par le mathématicien JacquesHadamard (1865-1963). Dans le cas de l'instabilité, écrivait ce dernier, « 1ephénomène paraîtrait [...] régi non par des lois précises, mais par le hasard ». Ilsous-entendait qu'on sortirait par là même du domaine de la science. En effetselon un aphorisme très ancien, "La science est ennemie du hasard" ; conceptionqui semble survivre à toutes les réfutations rationnelles, y compris celles que lechaos vient à son tour de lui infliger.

Poincaré

C'est surtout grâce à Henri Poincaré (1854-1912) que les phénomènesd'instabilité commencèrent à perdre leur statut d'intouchables. À la fin du XIXe

siècle, les mathématiques approfondissent la notion de fonction. Pour lesclassiques, une fonction était définie par une formule et pouvait doncnécessairement être calculée. Les nouvelles mathématiques voient la fonctioncomme une correspondance quelconque entre la valeur de la variable et celle dela fonction. Cet élargissement conceptuel considérable permet de poser bien desproblèmes d'une façon nouvelle. Poincaré étudie la mécanique céleste, et plusprécisément ce qu'on appelle le problème des trois corps7 — son grand mémoiresur ce problème date de 1890. On suppose, par exemple, que le système solaire seréduit au Soleil, à la Terre et à la Lune (ou encore au Soleil, à Jupiter et àSaturne). Poincaré ne cherche pas à calculer le mouvement du système de troiscorps, pour des conditions initiales déterminées ; il n'étudie pas un mouvementparticulier, mais l'ensemble des mouvements possibles. Cette position originale

7 Voir H.Poincaré, L'analyse et la recherche, Paris (Hermann), 1991.

Page 10: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

du problème l'amène à ouvrir des voies très nouvelles en mathématiques, plusprécisément en topologie. Elle révèle que le passage de deux corps à trois corpsfait apparaître un paysage entièrement nouveau, dont les disciples de Newtonn'avaient pas soupçonné l'existence.

Qu'est devenue l'harmonie ?

En premier lieu, les mouvements du système de trois corps n'ont pas lasimplicité harmonieuse qu'on avait admirée pendant quelque deux siècles dans lecas du problème de deux corps. Pour deux corps, les trajectoires sont des sectionsconiques (ellipses, paraboles ou hyperboles) : il était bien séduisant de retrouverdans les mouvements observés et calculés des planètes ces courbes, étudiées d'unpoint de vue purement théorique par les mathématiciens d'Alexandrie(Apollonius, né vers 245, Traité des sections coniques ). Les trajectoires duproblème des trois corps, quand on en jugeait empiriquement par celles de laLune et de la Terre, par exemple, ou quand on les calculait approximativementpar les méthodes classiques, semblaient être tout juste un peu plus compliquéesque celles des deux corps : des ellipses qui tournent et se déforment lentement.Poincaré découvrit que cette apparence de quasi-simplicité n'était quesuperficielle et n'avait rien de typique. La plupart des trajectoires, si on les suitpendant une durée assez longue, sont d'une telle complexité que je n'arrive àtrouver aucune métaphore, aucune comparaison avec des formes familières quipermettrait de donner une idée de ce fouillis, de ce gribouillage échevelé. Lasimplicité et l'harmonie sont, dans une très large mesure, illusoires. Plusprécisément, elles ne sont vraies qu'approximativement, pendant des duréessuffisamment courtes. C'est ce que nous allons voir dans un instant, à propos dela stabilité qui va de pair avec la simplicité.

Mouvements stables, mouvements instables

Qu'en est-il, justement, de la stabilité ? Il existe des mouvements stables,c'est-à-dire qui obéissent à la « maxime générale de la science physique » deMaxwell. Deux conditions initiales proches donnent, dans ce cas, des trajectoiresqui restent proches (ou pour être plus rigoureux : des mouvements qui restentproches). Mais il y a aussi des mouvements instables. Pour cette catégorie demouvements, deux conditions initiales proches donnent des mouvements quis'écartent de plus en plus rapidement l'un de l'autre (en termes techniques, ilss'écartent selon une loi exponentielle). On définit une durée, appelée temps deLiapounov, qui mesure le temps qu'il faut à deux mouvements instablesinitialement proches pour s'écarter notablement l'un de l'autre. Pendant unedurée nettement inférieure au temps de Liapounov, on peut considérer que lemouvement est stable. Mais cette approximation n'est plus du tout valablependant une durée nettement supérieure au temps de Liapounov. La stabilité dumouvement n'est donc pas une « maxime générale » de la physique, maisseulement une particularité de certains mouvements, ou encore une propriétéapproximative de chaque mouvement, vraie seulement pendant des duréessuffisamment courtes. Les systèmes dynamiques calculables par des formules,comme le Soleil avec une seule planète, n'ont que des mouvements stables ; mais

Page 11: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

contrairement à la croyance des classiques ils ne sont pas typiques. Le systèmedynamique typique peut avoir des mouvements stables, mais il a nécessairementdes mouvements instables.

Maxwell et le déterminisme

Tout cela nous a conduits au problème du déterminisme. Dès 1876,Maxwell disait dans une conférence prononcée à son club, à Cambridge8 : « Il estmanifeste que l'existence de conditions instables rend impossible la prévision desévénements futurs, si notre connaissance de l'état présent est seulementapproximative et non exacte ». Essayons de préciser un peu cette idée. Lemathématicien nous dit : il y a déterminisme si le mouvement futur du systèmeest bien déterminé par les conditions initiales. À mon avis, cette condition définitce qu'on peut appeler le déterminisme mathématique. Notion qui intéresse lephysicien, mais ne le satisfait pas entièrement ; il demande après Maxwell :« qu'en est-il si les conditions initiales ne sont données qu'approximativement ? ».Et il ajoute : c'est toujours le cas ! Non seulement toute mesure physique estentachée d'une imprécision que les progrès techniques réduisent de plus en plus,mais n'annulent jamais. Mais encore, la définition même des grandeursphysiques comporte le plus souvent un certain flou. La distance de la Terre à laLune, à un instant donné, n'est pas définie au femtomètre près (au diamètre prèsd'un noyau atomique).

Horizon de prévisibilité et déterminisme physique

Le physicien va donc dire : il y a déterminisme physique si la donnée(approchée) des conditions initiales détermine (approximativement) la suite dumouvement. Mais il faut encore préciser. Nous savons en effet que pour que deuxmouvements initialement voisins s'écartent notablement, il faut une certainedurée, de l'ordre du temps de Liapounov. Nous dirons donc : l'instabilité ne rendpas toute prévision impossible, elle limite seulement la possibilité de prévision àune durée de l'ordre du temps de Liapounov. En pratique le manque de définitiondes grandeurs physiques et l'imprécision sur leur détermination par la mesure oul'observation sont en général très faibles ; pour que deux mouvementsinitialement proches s'écartent notablement, il faudra donc une durée multipledu temps de Liapounov (dix ou vingt fois, peut-être). Nous l'appellerons l'horizonde prévisibilité. Le déterminisme physique est donc le fait que la donnée desconditions initiales à un instant donné détermine la suite du mouvement, maisseulement en deçà de l'horizon de prévisibilité.

8 Le texte de la conférence de Maxwell se trouve dans: C.E.Garnett, The Life of James Clerk Maxwell, with aselection from his correspondence and occasional writings, and a sketch of his contributions to science,Londres (Macmillan), 1882, p. 434-444. Cité par K.Pomian dans son article « Catastrophes etdéterminisme », Libre, n°4, 1978, Paris (Payot), pp. 115-136.

Page 12: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

Le système scolaire est-il stable ?

Pour donner un peu de chair à ces considérations abstraites, considérons lesystème solaire avec toutes ses planètes. Est-il stable ? Question classique,étudiée par les mathématiciens depuis presque trois siècles. Elle semble étrangeà première vue : la régularité des mouvements des planètes n'est-elle pas, depuisl'Antiquité, un des constats empiriques et une des hypothèses théoriques surlesquels s'est édifiée la science? Et sans la stabilité des mouvements de la Terreet de la Lune, de quels calendriers pourrait-il être question ?

Tout cela est vrai. Il y a d'ailleurs aussi des démonstrations théoriques dela stabilité du système solaire, idéalisé en un système de points matériels quiinteragissent entre eux selon la loi d'attraction newtonienne. Mais le faitempirique n'est établi avec précision que pour des durées de l'ordre dumillénaire ou un peu plus ; et les démonstrations théoriques de la stabilité neprouvent, elles aussi, la stabilité que sur une échelle de temps à peu prèscomparable. En revanche, la stabilité telle que la définissent les mathématiciensconcerne le comportement d'un système dynamique quand le temps tend versl'infini, ce qui est un tout autre problème, dont la solution n'est pas connue (jecrois). Enfin l'usage des ordinateurs a fourni des réponses fort intéressantespour des échelles de temps intermédiaires, si j'ose dire, entre les millénaires etl'infini : les dizaines ou centaines de millions d'années. Un calcul effectué surordinateur est un calcul numérique, et comme on ne retient qu'un certainnombre de décimales des nombres, on commet ce qu'on appelle des erreursd'arrondi ; par suite l'ordinateur fournit des résultats plausibles et non descertitudes absolues. Les résultats que je vais résumer sont cependant trèsprobables. Il est apparu que les mouvements des planètes dites intérieures(Mercure, Vénus, la Terre, Mars) sont instables, ou comme on dit chaotiques.Pour ces mouvements, le temps de Liapounov est de 5 millions d'annéesenviron. Voyons ce qui en résulte pour le déterminisme. Supposons que laposition de la Terre à un instant donné est connue à 15 m près (c'est uneexcellente précision). Alors au bout de dix millions d'années, l'incertitude surcette position sera de 150 m ; mais après cent millions d'années, elle sera de 150millions de kilomètres, soit la distance moyenne entre la Terre et le Soleil ; c'est-à-dire que la condition initiale ne détermine plus du tout la position de la Terre.Le système solaire, à l'échelle des siècles ou des millénaires, est donc bien unehorloge comme l'avaient cru les grands ancêtres. Mais le système solaire, àl'échelle des centaines de millions d'années, est gouverné par le hasard.

Trajectoires régulières, trajectoires stochastiques

Le chaos n'est pas une manière de penser limitée à la mécanique céleste.L'explosion des recherches et des publications définies par ce mot clé ne résultepas seulement d'un phénomène d'imitation, mais aussi de la levée d'un interditimplicite. En 1927 un pionnier dans l'étude des oscillations électriques,Balthasar van der Pol, avait observé des phénomènes que nous considéronsaujourd'hui comme manifestement chaotiques. Dans sa publication, ilmentionne l'existence d'un « bruit irrégulier », mais il ajoute : « Cependant, il

Page 13: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

9

s'agit là d'un phénomène marginal » Que veut dire « marginal » ? Simplementceci : van der Pol respectait sans le savoir une règle non écrite qui excluait duchamp de la physique les phénomènes « sales », trop irréguliers. Quand Lorenzet quelques autres eurent montré que cette règle n'avait aucun fondementrationnel, et surtout qu'à la transgresser on pouvait découvrir des champsentiers de phénomènes nouveaux du plus grand intérêt, on assista à une sortede ruée vers l'or... Il apparut que les phénomènes d'instabilité, désormaisappelés chaotiques, se rencontrent dans les domaines les plus variés de laphysique et de la chimie, mais aussi par exemple dans certains aspects del'écologie, dans les oscillations biologiques comme les battements du cœur, etc.

Petites causes, grands effets : nous avons parlé de cela à propos du crayonposé sur sa pointe, mais aussi de la mécanique céleste. Deux conditions initialestrès voisines déterminent des évolutions qui finissent par s'écarter de plus enplus ; on appelle cela la « sensibilité aux conditions initiales ». On la rencontredans des systèmes physiques très divers. Un mouvement sensible aux conditionsinitiales possède en général une autre propriété, philosophiquement trèsintéressante : bien qu'il soit parfaitement déterminé si ses conditions initialessont exactement fixées, il imite le hasard à la perfection ! Empruntons encoreune fois un exemple à la mécanique céleste : un petit caillou évolue entre laTerre et la Lune. À certains moments, il tourne autour de la Lune, à d'autres iltourne autour de la Terre. Observons-le périodiquement, l'intervalle entre lesobservations n'étant ni trop petit ni trop grand ; et notons, à chaque observation,s'il est plus voisin de la Terre ou de la Lune. Sur notre cahier d'observations,nous écrivons chaque fois « Terre » ou « Lune », selon le cas. Il s'avère alors quela suite de « Lune » et de « Terre » écrites sur le cahier ressemble à s'y méprendreà la suite de « Pile » et « Face » que je peux obtenir en lançant une pièce demonnaie ! La trajectoire de notre petit caillou résulte d'un processusdéterministe, elle obéit aux équations de la dynamique newtonienne. Néanmoinselle obéit aussi, d'une autre manière, à des lois de hasard. On dit que c'est unetrajectoire stochastique (mot synonyme d'aléatoire et qui, signifie : lié au hasard).On parle aussi de chaos déterministe, terme qui me paraît exprimer plutôt unenostalgie qu'une idée bien fondée. Car le déterminisme dont il s'agit ici (quandon parle de « chaos déterministe ») n'est qu'un déterminisme mathématique ;physiquement, nous avons vu que dès qu'il y a sensibilité aux conditions initialesil n'y a plus de déterminisme exact et inconditionnel, mais un déterminismelimité par un horizon de prévisibilité.

Poincaré et le chaos

Un article9 intitulé Le hasard, publié par Poincaré en 1907, a de quoi nousrendre modestes. Je ne ferai pas de citations, mais je traduirai fidèlement cequ'écrivait Poincaré dans le langage actuel, marqué par les recherches sur lechaos. Poincaré commence par critiquer la célèbre définition du hasard comme« mesure de notre ignorance ». La preuve qu'il existe des phénomènes réellementfortuits, explique-t-il, c'est que le calcul des probabilités permet de comprendre, 9 H. Poincaré, "Le hasard", Revue du mois, vol. 3, pp. 257-276 (1907). Reproduit dans : H. Poincaré, L'analyseet la recherche, Paris (Hermann), 1991.

Page 14: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

10

par exemple, les lois qui décrivent le comportement des gaz. Supposons qu'unjour, nous devenions capables de prévoir les mouvements de toutes les moléculesqui composent le gaz contenu dans cette pièce ; cela ne rendra pas fausses pourautant les lois que nous avons déduites du calcul des probabilités appliqué à cesmolécules, déduites par conséquent de l'hypothèse que les mouvements desmolécules en question sont stochastiques. Poincaré ne serait donc pas surpris s'ilrevenait parmi nous, et que nous lui parlions de nos découvertes sur lestrajectoires stochastiques des systèmes déterministes. Il explique d'ailleurs dansla suite de son article que le caractère stochastique d'une trajectoire tient à sasensibilité aux conditions initiales. Les spécialistes du chaos sont ainsi, dans unelarge mesure, des disciples posthumes de Poincaré, souvent d'ailleurs sans lesavoir.

Une erreur reconnue

Ainsi Laplace est un grand mathématicien, un grand physicien, mais sonroman métaphysique n'a pas résisté à l'usure des siècles. Le déterminisme n'estpas un principe a priori, condition sine qua non de toute science ; en physique, ilapparaît désormais comme une propriété précisément définie de certainssystèmes ou de certains mouvements. La notion d'horizon de prévisibilité, qu'onpeut faire remonter à Liapounov (1857-1918) (Théorie générale de la stabilité dumouvement,1892), mais que seule la mode du chaos a fait largement connaître —cette notion est un des principaux apports du chaos à la science et à laphilosophie des sciences.

C'est à mon avis Sir James Lighthill qui a le plus clairement souligné cepoint. Lighthill, récemment disparu, était un spécialiste éminent de lamécanique des fluides, et aussi un esprit libre et original. En 1986, devant uneréunion commune de la Royal Society et de la British Academy, Lighthillprésentait un exposé10 intitulé « L'échec récemment reconnu de la prévisibilité endynamique newtonienne ». Laplace, expliquait-il, a beaucoup contribué àrépandre dans la conscience générale une croyance à la prévisibilité totale dessystèmes qui obéissent aux lois de Newton — et donc au déterminisme del'univers mécanique. Il ouvrait alors une parenthèse, en précisant qu'il allaitparler en tant que président de l'Union internationale de mécanique théorique etappliquée. Nous, spécialistes de la mécanique, disait-il, sommes tousprofondément conscients aujourd'hui du fait que l'enthousiasme de nosprédécesseurs pour les merveilleux succès de la mécanique newtonienne les aconduits, dans le domaine de la prévisibilité, à des généralisations que nousavons eu tendance à tenir pour vraies avant 1960, mais dont nous reconnaissonsaujourd'hui qu'elles étaient fausses. Et il ajoutait ceci : nous souhaitons nousexcuser collectivement d'avoir induit en erreur le public instruit en répandant,sur le déterminisme des systèmes qui suivent les lois de mouvementnewtoniennes, des idées qui devaient, après 1960, être réfutées.

10 J. Lighthill, Proceedings of the Royal Society, vol. 407 A, p. 35 (1986).

Page 15: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

11

L'effet papillon

Cette prise de position si honnête de Lighthill n'a guère été remarquée. Enrevanche une plaisanterie du météorologiste Edward Lorenz a connu unimmense retentissement. Lorenz a été le premier à attirer à nouveau l'attentionsur les phénomènes d'instabilité, aperçus par Maxwell et étudiés par Poincarédans le cas de la mécanique céleste. Son article, publié en 1963 dans une revuede météorologie11, passa totalement inaperçu pendant quelque dix ans. Mais en1972 il présenta une brève communication12 à une session de l'AssociationAméricaine pour l'Avancement de la Science, consacrée au "Programme derecherche global sur l'atmosphère" (Global Atmospheric Research Program). Letitre de cet exposé était délibérément provocateur : "Prédictibilité : le battementdes ailes d'un papillon au Brésil déclenche-t-il une tornade au Texas ?"(Predictability : Does the flap of a butterfly's wings in Brazil set off a tornado inTexas ?). Dans les premières phrases du texte, Lorenz prenait ses distances avecle titre et finissait par le traduire en langage scientifique : 1e comportement del'atmosphère est-il instable par rapport aux perturbations de faible amplitude ?"Mais rien n'y fit : le titre fut pris à la lettre par les médias, et connut une fortuneextraordinaire.

Il y a là un fait qui mérite réflexion. Il serait trop simple de se borner à lecommenter par des considérations sur la bêtise humaine en général, ou sur celledes médias en particulier. Il ne suffit pas de faire n'importe quelle mauvaiseplaisanterie pour que les journaux s'en emparent. Le succès inouï de « l'effetpapillon » aune signification historique, telle est l'hypothèse que je voudrais voussoumettre, trop brièvement d'ailleurs.

Le papillon et le hasard

En premier lieu, le retentissement du titre de Lorenz (et non du contenurationnel de ses recherches !), joint au silence qui G répondu aux fortes parolesde Sir James Lighthill, indique à mon avis que la pensée occidentale n'a pas étécapable, jusqu'à présent du moins, de comprendre les découvertes de la physiqueet des mathématiques concernant l'instabilité et les limites du déterminisme.Elle les a désignées d'un nom — le chaos — qui n'a pas de pertinence, mais quitraduit son désarroi. Mais il y a plus : la rumeur publique s'est emparée de cesdécouvertes pour remettre en cause les fondements mêmes de la penséescientifique. Car enfin, si on prend au sérieux cette histoire du papillon qui batdes ailes au Brésil et produit par là une tornade au Texas, que peut-elle biensignifier ? Elle signifie qu'il n'y pas de hasard. Tout est lié avec tout ; malgré lesapparences, il n'y a pas d'événements vraiment indépendants. Ici unrapprochement s'impose, je crois, avec des croyances très anciennes. La positiondes astres au moment d'une naissance, croit-on souvent, va déterminer les traits

11 E. Lorenz, "Deterministic nonperiodic flow", Journal of the Atmospheric Sciences, vol. 20, p. 130 (1963).Reproduit dans Hao Bai-Lin, Chaos II, Singapour (World Scientific), 1990. Voir le chapitre 7 de Ian Stewart,Dieu joue-t-il aux dés ?, Paris (Flammarion, coll. « Champs »), 1994.12 Le texte de cet exposé ne fut pas publié au moment de sa présentation. Lorenz l'a donné en appendice deson livre The Essence of chaos, Seattle (University of Washington Press), 1993.

Page 16: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

12

essentiels du caractère et de la destinée du nouveau-né. Le regard jeté par unpassant sur un bambin va lui porter malheur, car ce passant ale mauvais œil.Analysant les catégories fondamentales de l'entendement dans les sociétéstraditionnelles, l'ethnologue Jean Poirier13 accordait une importance centrale àun principe de causalité universelle, qui ne reconnaît pas la contingence. Et ilsoulignait que c'est à partir de la reconnaissance de la notion de hasard, dans laGrèce du VIle siècle, que la pensée scientifique put se développer. Cette idéepermet, selon lui, de répondre à la fameuse question : pourquoi la science s'est-elle développée en Occident et pas en Inde ou en Chine ? Le système de valeursqui prévalait dans les cultures de ces deux grands pays, pense-t-il, n'admettaitpas le hasard comme concept opératoire, et par suite les initiatives scientifiquesqui se sont fait jour, malgré leur intérêt, n'ont pas trouvé un terrain favorable.

Quoi qu'il en soit de cette parenthèse, nous devons reconnaître à mon avisque le succès démesuré de l’ « effet papillon » en Occident est un aspect des fortestendances régressives qui se manifestent aujourd'hui. Il semblerait que ladéception causée par le dépassement du newtonianisme conduise à des réactionsirrationnelles. Réactions que rendent possibles les difficultés de la penséeocccidentale actuelle : nous n'avons pas réussi à comprendre vraiment lesgrandes révolutions de la physique au XXe siècle, nous ne les avons pas intégréesdans une façon nouvelle de comprendre le monde.

Le mot "chaos"

Le mot "chaos" lui-même peut être rattaché à ces réactions d'orgueil déçu.Il apparaît en 1975, dans le titre d'un article14 des mathématiciens Li et Yorke.Ici encore ce qui est significatif est la fortune du terme : il a été très vite reprisdans d'autres publications scientifiques et par la vulgarisation. Or il s'agit d'unedénomination grossièrement impropre. je le disais dès le début: le mot « chaos »exprime la terreur devant l'abîme, devant ce qui est obscur et incompréhensible.C'est donc tout le contraire des travaux scientifiques que l'on regroupe sous lenom désormais consacré de chaos ! Ces travaux, en effet, font entrer dans ledomaine de l'intelligible et du rationnel des phénomènes (physiques,mathématiques et autres) qui en étaient naguère exclus. Ils affinent notreconception du déterminisme en introduisant la notion d'horizon de prévisibilité.Ils redressent notre vision du hasard qui doit apparaître désormais, non commeun scandale auquel la science doit mettre fin, mais comme l'autre versant dudéterminisme. Ils nous incitent au réexamen critique de l'héritage newtonien,qui n'est certes pas renié par un de ces changements de paradigme chers auxdisciples de Kuhn, mais peut être libéré des erreurs métaphysiques qui en ontdéformé et obscurci le sens.

Vouloir cantonner le chaos dans les domaines clos de plusieurs spécialitésscientifiques serait donc une grave erreur. Je n'adresse pas ici le moindre clind'œil complice aux chantres de l'inter - ou de la transdisciplinarité, qui mettent à

13 J. Poirier, "Les catégories de la pensée sauvage", Bulletin de la Société française de Philosophie, tomeLXXVII, no3, p. 81 (1983).14 T. Y. Li, J. A Yorke, "Period Three implies chaos", American Mathematical Monthly, vol. 82, p. 985 (1975).

Page 17: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

13

profit le déficit d'explications claires sur le chaos pour nous entraîner vers leurnuit où tous les chats sont gris. Il s'agit pour moi de tout autre chose : ne pas secontenter de comprendre le contenu scientifique du chaos, mais tenter aussi decomprendre la signification historico-philosophique de son histoire. Pourquoi a-t-il fallu plus d'un demi-siècle pour que soit reconnue la portée scientifique trèsgénérale des travaux de Poincaré sur la mécanique céleste ? Pourquoi tout lemonde connaît-il l'effet papillon, et personne le discours de Lighthill ? Pourquoiditon toujours « chaos », et jamais « horizon de prévisibilité » Ou « sensibilité auxconditions initiales » ?

Physique et mathématiques

Une autre raison peut contribuer à expliquer pourquoi il est si difficile decomprendre vraiment le chaos15. La physique moderne s'est édifiée, à partir deGalilée, sur l'Idée de l'identité de la physique et des mathématiques. PourGalilée, le livre de l'univers est écrit en caractères géométriques. Laplace ne faitaucune différence entre l'univers et les équations de la dynamique newtonienne.Aujourd'hui cette Identification naïve a pu changer de formulation, mais ellereste une idée très vivante chez les physiciens. Or les réflexions de Maxwell etPoincaré sur le déterminisme et le hasard vont dans la direction opposée : ilsont, l'un et l'autre, insisté sur la différence entre le déterminisme mathématiqueet le déterminisme physique. S'ils ont été longtemps si peu écoutés quand ilsposaient la question de la stabilité, ce n'est pas qu'on croyait qu'ils avaient tort :aucun physicien ne pouvait considérer leurs remarques autrement que commedes vérités de bon sens. Le problème était ailleurs : il était difficile d'admettreque la connaissance imparfaite ou la définition floue des conditions initialespuissent jouer un rôle dans la dynamique elle-même. Ces imprécisions n'étaientpas niées, mais on leur refusait implicitement toute dignité théorique.

En somme, il y avait — et dans une large mesure, il y a encore dans laconception implicite du physicien — deux mondes. D'une part les processusphysiques, objets de la théorie physique, identifiés à leur descriptionmathématique et possédant comme elle la vertu d'exactitude. (Ne dit-on pas quela physique est une « science exacte » ?) D'autre part, les phénomènes, c'est-à-dire la manifestation des processus physiques dans l'expérience ou l'observation.Manifestation entachée d'imprécisions, classiquement désignées par le terme« erreurs de mesure » qui laisse entendre qu'elles peuvent être liées de quelquemanière à la faiblesse humaine. Le rôle de la théorie était de découvrir desdescriptions mathématiques des processus physiques, que l'expérience oul'observation se chargeaient de mettre à l'épreuve avec l'imperfection qui leurest propre. Cette imperfection apparaissait ainsi comme contingente et regardde la théorie, qui était dispensée de la faire entrer dans son monde d'exactitude.Le dualisme de la physique de l'Antiquité resurgissait ainsi comme contrasteentre l'exactitude du monde physique identifié à sa description mathématique etl'inexactitude des expériences et des observations.

15 Je suis ici mon livre Le chaos, déjà cité, pp. 119 et suivantes.

Page 18: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

14

Le chaos marque donc la redécouverte de la différence entremathématiques et physique, et de l'importance que peut avoir pour les sciencesphysiques elles-mêmes une conscience plus vigilante de cette différence. Mais ilest aussi une illustration nouvelle de leur unité. On connaît les exemplesclassiques de développements mathématiques qui apparaissaient purementgratuits et abstraits, jusqu'au jour où ils ont trouvé des applicationsastronomiques ou physiques qui les faisaient apparaître comme taillés surmesure : les sections coniques et les trajectoires des planètes; l'algèbre noncommutative et la mécanique quantique... Il faut maintenant ajouter à cesexemples le changement de point de vue opéré par les mathématiques au coursdu XIXe siècle. Ce changement peut être caractérisé comme un virage versl'abstraction. La topologie définit ses notions de base. Les fonctions simples,exprimables par des formules à l'aide de fonctions élémentaires, perdent leurprivilège ; la notion de fonction devient beaucoup plus générale et plus abstraitegrâce à des disciplines nouvelles comme la théorie des ensembles et la théorie dela mesure. Or ces changements étaient, encore une fois, prédestinés pour servir àla physique du XXe siècle, et tout particulièrement au chaos. La dynamiquemoderne est étroitement liée à la topologie, et elle nous fait rencontrer des objetsappelés attracteurs étranges dans lesquels se cachent des ensembles de Cantor.

Il serait injuste enfin de ne pas donner ici un coup de chapeau auxordinateurs, qui permettent une résolution numérique (nécessairementapprochée) des équations et surtout de visualiser leurs solutions. Une grandepartie des travaux récents sur le chaos n'aurait pas été possible sans lesordinateurs. Il n'en reste pas moins que les travaux fondateurs de Poincaré ontété compris avec un retard qui mérite réflexion, et qui justifie la déclaration deLighthill. Le chaos n'est pas venu à son heure, mais après son heure.

Un rêve déçu

Nous avons vu que le newtonianisme a été pour la pensée occidentalemoderne un terrain solide dans lequel elle a planté ses fondations. La penséeoccidentale possède une étonnante puissance analytique, mais aussi depuis lesorigines une tendance permanente à la généralisation et même àl'universalisation (qu'on trouve déjà chez les Présocratiques d'une part, dans lapensée chrétienne d'autre part). Aujourd'hui comme au temps de Laplace, ledéterminisme de la mécanique newtonienne est un fait mathématique etphysique avéré ; mais il n'est établi que régionalement, c'est-à-dire pour desdurées limitées et non jusqu'à l'infini temporel. La démarche d'extrapolationjusqu'à l'infini est si naturelle pour la pensée occidentale que le coup de forcelaplacien ne suscita pratiquement aucune opposition : les discrètes objections deMaxwell passèrent inaperçues. L'esprit omniscient dont parle Laplace, ce n'estpas Dieu ; l'illustre mathématicien et physicien avait à juste titre répondu àNapoléon qu'il n'avait pas besoin de cette hypothèse (pour faire sa science). Maissi ce n'est pas Dieu, qui est-ce donc ? Laplace le laisse entendre, malgré deprudentes restrictions : c'est l'esprit humain, éclairé par la science du XIXesiècle. Depuis Bacon et Descartes, l'entreprise scientifique est liée à une volonté,à un rêve de domination dont aujourd'hui encore elle ne sait pas se démarquer.

Page 19: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

15

On peut donc bien comprendre que la découverte des limites du déterminismen'ait pas suscité beaucoup d'enthousiasme, et que le nom péjoratif qui lui a étéattribué (« chaos » ) ait été adopté à l'unanimité.

Ce rêve de domination a désormais perdu toute légitimité et ne survitqu'en vertu de notre inertie mentale. Une époque de l'histoire s'achève, et nouspeinons à deviner ce qui pourra lui succéder. Ne faudrait-il pas déjà tirervraiment les leçons du passé et reconnaître où nous en sommes ? Pour resterdans le cadre fixé par ce groupe de travail, je dirai qu'un problème nous est posé :comprendre les acquis de la science du XXe siècle. Par comprendre j'entends ici :ne pas se borner à suivre les raisonnements de la physique pas à pas, maispouvoir situer ses acquis dans une interprétation du monde. De ce point de vue, ilfaut reconnaître à mon avis que nous n'avons pas compris (Non pas : nous, lesspécialistes, mais: nous, le public instruit). Le chaos, mais aussi la relativité et lamécanique quantique, par exemple, demeurent pour l'essentiel opaques. Il faut,je crois, reconnaître avec Emmanuel Levinas que nous assistons à la fin d'unecertaine intelligibilité16. Saurons-nous le reconnaître ? Saurons-nous discerner lestraits d'une autre intelligibilité, plus large, moins mesquine ? C'est là une toutautre question.

16 E. Levinas, Noms propres, Montpellier (Fata Morgana), 1976, p.11.

Page 20: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

De quelques enjeux philosophiquesdu phénomène chaos

par Éric Bois*

suivi de remarques de Jean-Michel Alimi

Les concepts du chaos et sa phénoménologie traversent aujourd’huiune large variété de champs scientifiques. La dynamique non-linéaire, lamécanique céleste, l’hydrodynamique, la physique expérimentale ou encorela chimie ont notamment rencontré et développé la phénoménologie duchaos. Ne serait-ce qu’en restant sur le terrain des sciences de la nature, lechaos s’avère un objet d’étude éminemment pluridisciplinaire. Mais de cetaspect pluridisciplinaire à ses invitations transdisciplinaires tout azimut, ils’est produit comme un "emballement", comme un phénomène de mode. Ils’ensuit que la grande diversité des discours, des techniques, expériences etapproches théoriques qui conduisent à l’affirmation d’un comportementchaotique n’aide pas nécessairement à se forger une idée claire de sasignification épistémologique.

Le chaos dynamique se manifeste par une limite de prédictibilité.Ceci, tout le monde le sait ou presque. Est-il pour autant réductible à unelimitation du calcul, une conjoncture pratique ? Que deviendrait la fameusesensibilité numérique aux conditions initiales si les ordinateurs avaient uneinfinité de décimales !? La limite de prédictibilité, est-elle le signe d’unespécificité dynamique ? Le chaos est-il réductible à de la non-prédictibilité ?Autrement dit, au-delà de la limite de prédictibilité, trouve-t-onimmédiatement et nécessairement une phénoménologie particulière ? Et si cen’est pas le cas, qu’est-ce donc que le chaos ?

Aux entrailles du chaos, quelques clefs de lecture

À la base de la quintessence du chaos, se trouve l’enseignementapporté par l’étude approfondie des systèmes dynamiques. Les systèmesdynamiques sont par définition des systèmes dont l’évolution temporelle estdécrite par un nombre fini d’équations déterministes. Les systèmesdynamiques, conservatifs ou dissipatifs1, sont déterministes. Mais il existeune autre catégorie de systèmes où tel n’est pas le cas. Ces systèmes et leursprocessus associés sont dits stochastiques. Dans les systèmes stochastiques,le déterminisme et le hasard sont volontairement et astucieusement mêlés ;ce qui ouvre le champ des combinaisons du chaos et du hasard. Les systèmes

* Observatoire de Bordeaux. UMR CNRS 5804. B.P. 89, F-33270 Floirac1 Les systèmes dynamiques peuvent être conservatifs ou dissipatifs suivant que l’énergie totale seconserve ou se dissipe (par perte ou par transfert). Les systèmes dynamiques conservatifs secaractérisent — et ceci rend spécifique leur étude — par l’existence de points fixes dans l’espace desphases (points stables et instables) et de solutions quasi-périodiques.

Page 21: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

conservatifs, dissipatifs et stochastiques constituent très généralement lestrois différents cadres d’étude des comportements des systèmespotentiellement chaotiques. Mais les systèmes dynamiques étantdéterministes et suffisants pour produire du chaos2, ils se présentent alorscomme étant philosophiquement les plus sobres et scientifiquement les pluséconomiques — en particulier les systèmes conservatifs — pour cerner defaçon sûre les ingrédients stricts qui font du chaos. Or, il s’agit d’interrogerle rapport de l’impossibilité à produire des prédictions vis-à-vis del’imprévisibilité réelle et intrinsèque.

Le cœur du chaos dynamique découle d’une propriété mathématique,celle de non-intégrabilité au sens de Poincaré.3 Le chaos estconventionnellement défini par un comportement non quasi-périodique lié àl’instabilité, la non-linéarité et les résonances dans les systèmes non-intégrables. En conséquence, la signification épistémologique du chaosdynamique est fondée sur son essence mathématique. La relation entrel’instabilité et la chaoticité est alors que le système manifeste une hautesensibilité aux changements de conditions initiales: de petites causes ont degrands effets.4 .

Ainsi, si le chaos issu des systèmes dynamiques conservatifs etdissipatifs se caractérise par une limite de prédictibilité et un apparentdésordre des points, sur les coupes, aux allures de "fait du hasard", il n’estpas sans dissimuler un déterminisme très fort. Dans les systèmesdynamiques non-linéaires à plusieurs degrés de liberté, le chaos se produitassez généralement autour des résonances5, mais ni les données d’entréealéatoire, ni la complexité ne sont nécessaires à produire du chaos. Nulleintervention du hasard ne peut être invoquée. Le chaos dynamique estfondamentalement une conséquence de la nature non-intégrable dessystèmes dynamiques de ce genre. Or les phénomènes de la nature sontgénéralement mieux représentés par des systèmes non-intégrables ! Il fautdire que la variété des équations intégrables, apprises à la Grande École, neconstitue qu’une infime sous-classe de l’immense variété des systèmesd’équations qui tisse le quotidien des chercheurs en dynamique non linéaire.

2 Par exemple, le problème des 3 corps. Sa mise en équations demeure étonnamment simple comptetenu de tout l’enseignement dont il est porteur.3 Un système est dit intégrable s’il possède une intégrale indépendante du mouvement pour chacun deses degrés de liberté. Cette intégrale est dite intégrale première; elle correspond à une loi deconservation d’une grandeur de la physique. Dans ses Méthodes Nouvelles de la Mécanique Céleste,Henri Poincaré montre que le problème des trois corps en interaction gravitationnelle n’est pasintégrable.4 Un exemple populaire est celui de l’effet dit "papillon" en météorologie dynamique via les équationsde Lorenz (Lorenz, E., 1963, “Deterministic Nonperiodic Flow”, Journal of the Atmospheric Sciences20, 130-141).5 Les interactions mutuelles répétées peuvent déformer les trajectoires au point de perdre la stabilité.

Page 22: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

Le « syndrome du chaos »

La grande vogue du chaos ne s’est pas développée sans répandre unecertaine pathologie associée. Ce que j’appelle le « syndrome du chaos »correspond au fait qu’un phénomène peut présenter les symptômes du chaossans pour autant procéder de cette pathologie. Ce syndrome prend sa sourcedans le fait d’identifier imprudemment les indicateurs du chaos avec lespreuves du chaos. Dans ces conditions, l’on comprendra comment, secontentant des apparences du chaos, l’on passe à sa "prolifération".

Que la non-prédictibilité cache ou annonce un chaos ne répond pas dustatut de ce dernier en regard des épreuves ordinaires de tout objet descience, c’est-à-dire schématiquement : la pratique, la théorie etl’observation, ou encore l’ordinateur, les mathématiques appliquées etl’expérimentation. L’impossibilité pratique de calculer, c’est-à-direl’existence de limitations aux prévisions, renvoie aux propriétésmathématiques des équations qui sont intégrées. La sensibilité numériqueaux conditions initiales résulte de l’instabilité intrinsèque dans les zoneschaotiques des systèmes non intégrables. À l’essence mathématique duchaos correspond une manifestation en pratique. Mais ces équations peuventapprocher une réalité et ce chaos signifier quelque chose de naturel, tout dumoins des aspects dynamiques comme la perte de la permanence de lastabilité.6 Il est par conséquent à souligner que la limite de prédictibilitépeut être soit pratique, soit "modèle-dépendant" mais elle peut aussiannoncer l’imprévisibilité naturelle. De la sorte, il est nécessaire dedistinguer plusieurs degrés de signification du chaos déterministe, liés à sesprotocoles de mise en œuvre : 7

1. Un calcul « modèle-dépendant » conduisant à la seuleaffirmation d’une limite de prédiction, définit un premierniveau.

2. Un comportement dynamiquement chaotique, dûment établiselon une propriété interne au système dynamique, définit lesecond niveau.

3. Dans le troisième niveau, cette propriété interne est réellementen acte dans le « morceau » de nature représenté par lesystème.

Le chaos dynamique, deuxième et troisième niveau, signifieessentiellement qu’un mouvement chaotique peut explorer une large portionde l’espace des mouvements, ce qui correspond à un facteur naturel dedéploiement des possibilités dynamiques de la nature. Au niveaumacroscopique, le chaos dynamique n’est ni le hasard, ni le n’importe quoi, il 6 À ce titre, le chaos traduit l’instabilité de la stabilité !7 Bois, E., 1997, “Le chaos, sens, contresens et cohérence”, Comptes-Rendus de l’Ecole Thématique duCNRS Chaos et Fractales dans l’Activité Solaire, J.P. Rozelot (Ed.), 8-24.Bois, E., 2000, “Les trois niveaux de signification du chaos dynamique”, Revue des QuestionsScientifiques (à paraître).

Page 23: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

est cohérent, il est déterministe et, à son niveau le plus fort, signifiel’existence d’un processus exploratoire du mouvement, lequel traduit uneréalité possible. Et cela même si, à ses niveaux inférieurs de signification, iln’en est assurément pas ainsi.

Le chaos et l’intention du chaos

L’intention du chaos, c’est ce que l’on voudrait faire dire au chaos,c’est-à-dire les raisons plus ou moins cachées d’un chaos non plusphénomène, mais érigé en vecteur d’idéologie plus ou moins philosophique.Ici, ce n’est plus le chaos qui instruit, mais l’idée du chaos qui attire etséduit. C’est pourquoi j’appelle ce phénomène socio-anthropologique « lechaos et l’intention du chaos » au point que l’on puisse parler aujourd’huid’une sorte de phénoménologie du chaos.

Situons au préalable cette phénoménologie dans une approche plusvaste et actuelle de philosophie des sciences. La question du réalisme, parexemple, se voit aujourd’hui graduer de multiples genres tels le réalismeabstrait, le réalisme lointain, le réalisme de principe, et d’autres encore.8 Leréalisme, même s’il ne sait plus très bien dé-corréler les strates de la réalitéde celui qui la mesure ou qui la pense, le réalisme, c’est de toute façonl’accueil du réel tel qui l’est, incluant tout, tout acte, tout être, y compris soi-même. Aux notions classiques, en Science, de réduction, maîtrise,prédictibilité, exhaustivité... se substituent des notions et des conceptsbalayant aujourd’hui le champ des sciences, à savoir irréductibilité,incertitude, imprédictibilité, incomplétude, indécidabilité... La similitude decohérence de ces nouvelles notions peut certainement contribuer à amorcerla question de savoir s’il ne s’agirait pas là, d’un nouveau paradigme enélaboration. Aussi pour mieux asseoir cette idée, l’on voudrait voir la chutedu déterminisme et proclamer dans cette même veine l’indéterminisme ! Etbien non ! En tout cas pas avec le chaos !

Autre chose, l’on voudrait de ci de là que le chaos alimente la thèse duhasard érigé en système explicatif. Or c’est tout le contraire, le chaos seprésente plutôt comme un territoire d’intelligibilité conquis à l’empire duhasard ! Michel Bounias, professeur de Toxicologie et de Biomathématiquesà l’Université d’Avignon, l’a très bien compris lorsqu’il intitule l’un de sesarticles « Le hasard : battu par chaos ! » 9 Le chaos, tout comme le hasard,exploite le possible, rien que le possible, jamais l’impossible.10 Le chaosdynamique déploie les possibilités dynamiques d’un système dynamique.

8 Lire à ce propos l’article de Delahaye (Delahaye, J.-P., 1991, “Le réalisme en mathématiques et enphysique”, Pour La Science 159, 34-42).9 Science Frontières 30, pp. 18-23.10 Qu’on se le dise dans les sciences de la vie !

Page 24: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

Je conclurai en disant que l’apport de la science du chaos enPhilosophie de la Nature est que le dualisme « prédictibilité-imprédictibilité » n’est pas l’alternative « déterminisme-indéterminisme ».

Remarques de Jean–Michel Alimi

Le chaos qui a été principalement évoqué ici est le chaosdéterministe. Nous n’avons pas parlé du chaos quantique qui estde nature différente. Le chaos déterministe est particulièrementintéressant, il pose fondamentalement la question de la différenceentre déterminisme et prévisibilité. Dans le chaos déterministe,les lois restent déterministes, ce qui est chaotique, ce sont lessystèmes. En désaccord sur ce point avec Eric Bois, je crois doncque l’on peut définir le chaos déterministe comme une sensibilitéextrême aux conditions initiales; et par-là même nous comprenonspourquoi nous devons distinguer déterminisme et prévisibilité.

Mon second commentaire concerne l’idée de chaos etd’évolution temporelle. Nous avons, je crois dans nos propos,toujours supposé que le chaos apparaissait après une évolutiontemporelle longue du système considéré. C’est effectivement le casen mécanique céleste, où la nature chaotique est mise en évidencepar le calcul d’exposant de Lyapunov, qui estime typiquement letemps sur lequel le système solaire exhibe des aspects chaotiques.Mais il n’est pas toujours possible de procéder de cette façon. Parexemple, en relativité générale où apparaissent également dessystèmes chaotiques, cette théorie étant covariante dans lesystème des coordonnées la mise en évidence du chaos d’unsystème relativiste — comme par exemple l’univers mixmaster —à l’aide d’un exposant de Lyapunov ne tient plus. Une simpleredéfinition du temps suffit à modifier sa valeur. Je crois qu’ilvaut mieux parler de paramètre de contrôle au-delà duquel unsystème est chaotique et en deçà duquel il ne l’est pas.

Page 25: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.ff

1

Le Chaos - Débat

Interventions de Jean Bricmont (p. 1),d'Hervé Zwirn (p. 2),de Michel Bitbol (p. 3),de Bernard d'Espagnat (p. 5),de Jean Staune (p. 5)et de François Lurçat (p. 6).

Jean Bricmont

J'ai deux objections à formuler. L'une est de type conceptuel et concerne cequ'il y a de réellement nouveau dans la théorie du chaos. L'autre est de typehistorique et a trait à la lecture de Laplace. J'ai rencontré relativement souventcette lecture de Laplace. Pourtant, en lisant ses écrits, je n'en ai pas du tout lamême interprétation. Concernant l'aspect conceptuel, l'essentiel aurait peut-êtreété d'indiquer clairement, à un moment de votre exposé, la distinction existantentre déterminisme et prévisibilité. Le déterminisme est ce que la nature faitd'une certaine façon et la prévisibilité, c'est ce que nous, êtres humains, sommescapables de faire dans des circonstances particulières. Et je pense que cettedistinction était claire aux yeux de Laplace. Sa vision du déterminisme étaitbasée sur des considérations métaphysiques, mais j'ai du mal à croire que lui oud'autres aient douté du fait que certains phénomènes échappent à la prévisibilité(humaine). Et je n'arrive pas à voir dans le chaos ce qu'il y a de neufphilosophiquement parlant par rapport à cela.

Il y a beaucoup de nouveauté dans le sens ou les gens pensaient pouvoirprévoir, par exemple, les phénomènes météorologiques à plusieurs semaines dedistance, et qu'ils se sont rendus compte que cela était impossible, mais ça, cen'est que l'aspect pratique de la théorie du chaos. Je ne vois pas de nouveautéphilosophique radicale. Prenons l'exemple d'un pendule. Qu'y a-t-il de plusdéterministe qu'un pendule ? Pourtant un pendule est imprévisible. Cela vient dufait que les périodes d'oscillation d'un vrai pendule (c'est-à-dire anharmonique)dépendent de l'amplitude. Et l'amplitude dépend des conditions initiales, engénéral. Une toute petite erreur sur les conditions initiales, aussi infime soit-elle— à condition que cela change l'amplitude initiale — va engendrer deuxmouvements qui seront déphasés après un certain temps. D'un point de vuepratique, d'un point de vue humain, le pendule est imprévisible. Vous faites unepetite erreur et vous avez un déphasage après un certain temps. Et ce temps-làest beaucoup plus court que les centaines de millions d'années qu'il faut pouravoir une imprévisibilité pratique dans le système solaire, qui, lui, est chaotique.

Page 26: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.ff

2

Hervé Zwirn

Je voudrais intervenir tout d’abord sur ce qui a été dit à propos de la non-nouveauté philosophique apportée par l’étude de ce qu’on appelle « le chaosdéterministe ». Certes, comme l’a dit jean Bricmont, même du temps de Laplace,personne ne croyait qu’il était (ou qu’il serait) réellement possible à l’homme deprédire le comportement à long terme de systèmes déterministes très complexes.En ce sens, je suis d’accord avec lui sur le fait que la distinction entreprédictibilité et déterminisme n’est pas totalement nouvelle. Mais, dans lessystèmes à un grand nombre de degrés de liberté, comme ceux étudiés enmécanique des fluides, l’imprédictibilité du comportement n’est nullementétonnante. Elle résulte intuitivement du fait qu’on ne sait pas, sur un planpratique, traiter simultanément les interactions entre de trop nombreuxconstituants, sous systèmes ou degrés de liberté. L’imprédictibilité résulte ainsinaturellement de la complexité du système. C’est pour cela que l’exemple de lamécanique des fluides ne me semble pas le plus approprié pour montrer lanouveauté qu’introduit l’étude du chaos déterministe.

Cette nouveauté réside dans le fait que même des systèmes très simplespeuvent avoir un comportement chaotique non prévisible. Contrairement à ce quisemblait jusque-là une évidence, un comportement compliqué ne résulte pasforcément d’un système compliqué. Les travaux de Poincaré portent sur leproblème de trois corps en interaction gravitationnelle. Il a montré qu’un telsystème (par exemple, celui composé du Soleil, de Jupiter et de Saturne) avait engénéral un comportement chaotique. Dans le problème des trois corps, l’on estface à un système à 9 degrés de liberté. On a montré plus tard que 3 degréssuffisent. Il s’agit donc de systèmes extrêmement simples.

Par ailleurs, il faut être plus précis sur ce qu’on entend par comportementchaotique. Un tel comportement est caractérisé par le fait que deux exemplairesidentiques du système, placés dans des situations initiales aussi proches qu’onveut, finiront par avoir une évolution totalement différente. L’imprédictibilité nerésulte donc pas de notre impossibilité à traiter simultanément d’un trop grandnombre de paramètres, mais elle provient du fait que, quelle que soit la précisionavec laquelle on se donne les conditions initiales du système, celle-ci estinsuffisante pour nous permettre de calculer l’évolution précise à plus ou moinslong terme. C’est ce qu’on appelle la sensibilité aux conditions initiales. C’est lefait que des systèmes simples puissent êtres sujets à une telle sensibilité qui mesemble être la nouveauté radicale qu’a apportée l’étude du chaos déterministe.

Ma seconde remarque est que l’exemple pris par Jean Bricmont, le pendulesimple, n’est pas un système chaotique. Bien sûr, une incertitude initiale sur laposition ou la vitesse nous empêchera de prédire la position ultérieure dupendule. Mais l’erreur de départ ne s’amplifie pas de manière exponentiellecomme dans les systèmes chaotiques. Il en résulte que si on se donne une marged’incertitude sur les conditions initiales, on peut caractériser la famille descomportements (tous périodiques) susceptibles de se produire. Il en va autrementdans les systèmes chaotiques dont un bon exemple me semble être les balanciers

Page 27: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.ff

3

aimantés que certains aiment placer sur leur bureau en guise de mobile décoratifet qui défient toute tentative de prédire leur comportement au-delà de quelquesdizaines de secondes.

Enfin, pour terminer, je voudrais dire que je ne partage pas l’hostilité deFrançois Lurçat au sujet de l’effet papillon. Savoir si les termes qu’emploient lesmathématiciens ou les physiciens sont appropriés est un débat récurrent, mais jene le trouve pas si important. En revanche, l’effet papillon correctement présentéme semble de nature à donner une bonne idée du phénomène de sensibilité auxconditions initiales. Le danger est de l’interpréter comme le fait que c’est lecourant d’air causé par le battement des ailes du papillon qui est amplifié aupoint de se transformer en tempête ! Une présentation à l’envers serait peut-êtremeilleure : elle consiste à dire que le battement des ailes du papillon a engendréune modification des conditions initiales telle que, là où devait se produire unetempête, il a régné un temps clément. L’image perd une partie de sa forcesuggestive, mais elle ne risque plus d’être interprétée à contresens.

Michel Bitbol

Je voudrais aborder un aspect proprement philosophique de votre intervention.Vous avez indiqué à deux reprises qu’un grand nombre de physiciens considéraitle déterminisme comme une condition de possibilité de la science. À l’appui devotre affirmation, je citerai comme exemple un texte de Paul Langevin sur lathéorie quantique, daté de 1939, et récemment republié dans La Recherche : “Jesuis convaincu qu’en renonçant à la conception déterministe, écrit Langevin, nouspriverions la science de son ressort essentiel, de ce qui a fait jusqu’ici sa force etson succès, la confiance dans l’intelligibilité du monde. Rien dans les difficultésactuelles ne justifie ou n’impose un changement d’attitude qui équivaudrait,selon moi, à une abdication”. Le fait que cette opinion ait été largement partagée(et le soit encore de nos jours) ne dispense cependant pas de s’interroger sur sonbien-fondé et sur ses origines. Dans quelle mesure le déterminisme est-il unecondition de possibilité de la science ? Quelle signification faut-il accorder auxconnotations kantiennes de cette idée ? Et tout d’abord, Kant peut-il vraimentêtre considéré comme l’un de ses premiers défenseurs ?

Il me semble pour ma part que, loin d’être liée à une lecture rigide dudéterminisme comme “condition de possibilité de la science”, la philosophie deKant est suffisamment générale pour prendre en charge des écarts notables vis-à-vis d’un lien strictement déterminant entre phénomènes. Mais cela n’a riend’évident, et il faut donc que je justifie cette affirmation.

Après tout, de nombreux passages de la Critique de la raison puresemblent pouvoir êtres cités à l’appui de la thèse du déterminisme commecondition de possibilité de la connaissance objective, comme, par exemple, celui-ci(A228-B280) : “(...) le principe « rien n’arrive par un hasard aveugle » (...) est uneloi a priori de la nature”. Si l’on considère qu’un lien seulement probabiliste entreantécédents et conséquents relève du « hasard aveugle », on est tenté d’inférer de

Page 28: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.ff

4

cela que, selon Kant, c’est seulement moyennant l’établissement d’une loidéterministe qu’il peut être question d’une nature à connaître, et que parconséquent le déterminisme est bien une condition de possibilité de laconnaissance de la nature.

Gordon Brittan et quelques autres commentateurs de Kant ont cependantmis en garde contre cette assimilation, et contre la conclusion hâtive qui s’ensuit.Selon eux, la proposition “tout ce qui arrive est hypothétiquement nécessaire”,par laquelle Kant résume le principe de causalité, est assez large pours’accommoder d’un lien seulement probabiliste. Le « hasard aveugle » qu’exclutKant n’équivaut pas au simple fait de l’intervention de probabilités inférieures àUn, mais à l’absence de toute possibilité de relier les événements successifs parune règle, celle-ci ne concernerait-elle que les probabilités. La possibilité de loisportant immédiatement sur les probabilités plutôt qu’immédiatement sur lesévénements n’était d’ailleurs pas complètement étrangère à Kant. Plusieurstextes en témoignent. On trouve ainsi, dans l’Idée d’une histoire universelle aupoint de vue cosmopolitique, une référence aux « lois naturelles constantes » quigouvernent le nombre de mariages ou les variations atmosphériques, alors mêmeque mariages et variations atmosphériques sont individuellement imprévisibles.On trouve également, dans les Prolégomènes à toute métaphysique future, uneremarque selon laquelle le calcul des probabilités contient des jugements « (...)tout à fait certain sur le degré de possibilité de certains cas sous des conditionsidentiques données, lesquels, dans la somme de tous les cas possibles, ne peuventmanquer de se produire selon la règle, bien que celle-ci ne soit pas suffisammentdéterminée vis-à-vis de chaque événement singulier ». Il semble donc bien que larègle requise par le principe kantien de causalité puisse porter sur les rapports desuccessions de collectifs et non pas obligatoirement sur des individus.

Il y a d’autres raisons, encore plus spécifiques, qui me portent à croire queKant aurait pu (plus facilement que les physiciens auxquels vous pensez)intégrer les processus chaotiques dans son système philosophique.

La première est que, comme d’autres principes de l’entendement pur, leprincipe de causalité opère comme un critère pour trier, dans la variation desphénomènes, entre ce qui est attribuable à la nécessité d’un processus objectif, etce qui ne peut être attribué qu’à la contingence d’une position subjective. Il estavant tout une directive (un « principe régulateur », dit Kant) de la recherche aumoyen duquel on parvient à identifier, au sein de ce qui arrive, une successionobjective. Le principe kantien de causalité fonctionne en bref comme uneinjonction adressée au chercheur de se laisser guider par lui dans soninvestigation plutôt que comme un cadre rigide auquel doivent d’emblée seconformer les phénomènes. Rien n’empêche dans ces conditions d’appliquer leprincipe de causalité aux processus chaotiques. Il suffit pour cela de le fairefonctionner comme une directive demandant à l’expérimentateur d’aller de plusen plus loin dans l’amélioration de la précision avec laquelle il connaît lesconditions initiales, de façon à reculer indéfiniment le temps de divergenceexponentielle du devenir du système.

Page 29: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.ff

5

La deuxième raison qui me porte à croire que Kant n’aurait pas eubeaucoup de mal à rendre raison des phénomènes chaotiques est que, dans le casdu chaos déterministe, on peut toujours reconduire rétrospectivement unévénement qui s’est produit au temps t à un événement extrêmement précis quise serait déroulé au temps 0, en reliant ces deux événements (toujoursrétrospectivement) par une loi exacte. L’essentiel est pour Kant que lesévénements soient reliables (fût-ce a posteriori) par une règle, et non pas quecette règle permette dans tous les cas de les prédire.

La conclusion que je tire de tout cela est qu’il y a eu un excès de rigiditédans l’application qu’a voulu faire du principe kantien de causalité bon nombrede physiciens, lorsqu’ils ont posé que le déterminisme était une condition depossibilité de la science. Comme il arrive souvent dans l’histoire de la pensée, lecréateur d’une lignée philosophique a été caricaturé par ses épigones.

Bernard d'Espagnat

Je me demande pourquoi les gens qui parlent du chaos, non seulementnotre ami Lurçat mais tout le monde, ne font pas le lien entre ce travail dePoincaré, qui a introduit cette notion, et la philosophie générale de Poincaré.C'est-à-dire le conventionnalisme. Moi, il me semble que ce lien s'impose plus oumoins. Nous savons tous qu'il y a deux espèces d'objectivité (forte et faible). Il y al'objectivité du réaliste qui dit « l'énoncé est objectif s’il décrit les choses tellesqu'elles sont » et l'objectivité de quelqu'un qui est plus prudent et qui dit : « unénoncé est objectif si ce qu'il prédit est valable pour n'importe qui ». Et il est clairque Poincaré adopte ce second point de vue. Il dit « les objets eux-mêmes nousserons éternellement cachés etc… ». Donc pour lui, c'est l'objectivité faible quicompte, c'est la seule qui ait un sens et pour cette raison, il est tout naturel de sapart d'introduire cette notion de prévisibilité et d'en faire quelque chosed'essentiel. C'est-à-dire que, pour lui, toujours, pour qu'il y ait déterminisme, ilfaut qu'il y ait prévisibilité. S'il n'y a pas de prévisibilité, il n'y a pas dedéterminisme ou le mot déterminisme n'a plus de sens. Je pense que ce lien entreles travaux scientifiques et philosophiques de Poincaré mériterait d’êtreapprofondi.

Je me pose aussi une autre question qui est : pourquoi attacher tantd'importance à ce déterminisme de Poincaré, cette limite du déterminismeintroduite par Poincaré, alors que nous avons maintenant, avec la mécaniquequantique, quelque chose qui introduit un indéterminisme qui paraît beaucoupplus fort, car il est très difficile, comme nous le savons tous, de le contournerÊ?

Jean Staune

Il y avait, dans l'exposé de François Lurçat, des citations très fortes que j’aidécouvertes concernant une « religion newtonienne » ou une « politiquenewtonienne ». Et ce sont effectivement ces implications non seulementphilosophiques mais également sociologiques voire métaphysiques que la science

Page 30: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.ff

6

peut avoir qui sont, je crois, au cœur de ce groupe et qui en font son originalité.Pour apporter une toute petite pierre, selon mon domaine, concernant lesquestions de management, il est clair, et de nombreux spécialistes d'organisationd'entreprise l'ont bien montré, qu'il existait un lien évident entre la physique deLaplace et le système taylorien. C'est-à-dire que le système d'organisation desentreprises tayloriennes n'aurait pas pu être pensé ou conçu sans la physique deLaplace. Et je crois que c'est très important de voir le parallèle entre d'un côtédes lois et des particules élémentaires et de l'autre, des hommes et desprocédures. Ceci est un autre exemple des implications sociétales de ce qu'a puêtre une certaine vision classique du monde et aussi de ce que la remise en causede cette vision classique peut apporter à la société. En détruisant cette analogie,on peut justifier d'autres façons de fonctionner.

François Lurçat

Il est évidemment impossible de répondre à toutes ces interventions nonseulement tellement variées mais également tellement détaillées. Je dois mêmedire, sans que cela comporte la moindre critique, qu'en préparant cet exposé, jem'étais placé du point de vue suivant: je ne voulais pas séparer la questionscientifique du chaos qui est une question qui a des faces extrêmement diverses(si bien qu'à tout énoncé un peu général on peut opposer un contre-exemple), dela question de la compréhension du chaos et cette compréhension m'intéressait àla fois du point de vue des spécialistes qui essayent de comprendre ce qu'ils font,ce que l'on appelle philosophie des sciences, épistémologie, etc, et du point de vuede l'étude sur les mentalités. C'est la raison pour laquelle j'ai voulu parler del'effet sur les mentalités de la mécanique newtonienne et du fait que le systèmenewtonien était considéré comme le meilleur système de gouvernement parDesaguliers. Voilà ce qui me distingue peut-être de la plupart des intervenants,car ils étaient, pour la majorité d'entre eux, des gens qui ont des préoccupationsscientifiques bien précises, dont je ne conteste bien entendu pas la légitimité,mais ce que j'ai essayé d'avancer, de commencer, c'est-à-dire un examen de cettegalaxie de théories scientifiques en tant que pouvant avoir et ayant un effet surles mentalités, sur l'interprétation générale du monde, ça, ça n'a pas été retenu.C'est probablement ce qui explique aussi qu'il y avait des remarques de détailque je n'ai pas le temps de reprendre, que j'aurais pu mieux éclairer en prenantd'autres exemples, etc… Je regrette que l'on n’ait pas amené la discussion aussisur ce thème-là.

Page 31: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

La notion de temps

par Jean Kovalevsky, membre de l'Institut*

Introduction : le temps classique

Nous avons de la notion de temps une connaissance primaire, vivant dansun présent coincé entre un passé qui se cristallise dans nos souvenirs et un futurplein d'inconnu. Cette conscience du temps qui s'écoule est une donnéeindissoluble de la vie : la présence du temps se manifeste par tout changement,tout mouvement ou toute évolution. Mais, à ce niveau, on se trouve devant unconcept vague, presque virtuel. Nous pourrions dire avec Saint Augustin : "si onne me le demande pas, je crois savoir ce qu'est le temps ; si on me le demande, jene le sais plus".

Pourtant, toutes nos expériences personnelles et transmissibles, end'autres termes notre "bon sens", caractérisent le temps par au moins troisaspects qui paraissent aller de soi.

1°) La chronologie. C'est la succession des événements. On classe ceux-ci en lesdatant. On dira que si A s'est produit avant B, on a :

Date (A) < Date (B).

C'est la conséquence de deux constatations. L'une est la "flèche du temps"d'après lequel, lorsqu'un événement a eu lieu, il est impossible d'y revenir. L'autreest le principe de causalité: la cause se produit avant la conséquence et a doncune date inférieure. La matérialisation de la chronologie est une échelle detemps, ou encore un calendrier.

2°) La simultanéité. Deux événements sont simultanés s'ils se sont produits à lamême date, quels que soient les endroits où ils ont eu lieu. Ils ne peuvent pas êtrela cause l'un de l'autre, mais peuvent évidemment avoir la même cause.

3°) La durée. Cette notion implique qu'on peut mesurer le temps, c'est-à-direconstruire des horloges. Ainsi, un record est établi lorsque la durée de la course aété inférieure à celle du précédent record, et ce quel que soit le stade où il a étéétabli. Physiquement, cela signifie qu'on peut définir une unité de tempsreproductible avec des durées égales quel que soit le lieu. La conséquence estaussi que la durée entre deux évènements simultanés est nulle.

La traduction scientifique de ce temps de tout un chacun est le tempsabsolu ou newtonien. Celuici est le même quel que soit le point de l'Univers où il * Académie des Sciences - 23, quai Conti - 75006 Paris.

Page 32: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

est mesuré et quelle que soit la vitesse, la vitesse de l'horloge et quel que soit leréférentiel, par rapport auquel elle est mesurée. Ces référentiels sont d'ailleurséquivalents pour toutes les lois de la Physique s'ils sont en mouvement linéaireet uniforme l'un par rapport à l'autre.

La conséquence la plus simple est que le trajet parcouru par un mobile devitesse uniforme est proportionnel à la durée du trajet et rien ne s'oppose à cequ'il y ait des vitesses aussi grandes que l'on veut. Ainsi, un objet A de vitesse VA

sur et par rapport à un objet B ayant une vitesse VB dans la même direction parrapport à un référentiel est VA + VB par rapport à ce référentiel. Nous allonsrevenir sur cette conséquence.

Le temps en Relativité restreinte

Cette loi de l'addition des vitesses a été contredite par l'expérience deMichelson et Morley. Elle n'est plus vraie lorsque VA est la vitesse de la lumière.On trouve que :

VA ± VB = VA.

C'est un cas limite. En fait, d'après la Relativité restreinte, la loinewtonienne d'addition des vitesses n'est jamais vraie et c'est ce qu'expriment lesformules de Lorentz qui sont à la base de la Relativité restreinte. Elles ont, entreautres, comme conséquence qu'il ne peut pas y avoir de vitesse supérieure à cellede la lumière.

- L `espace-temps en Relativité restreinte

La nouveauté de la théorie de Relativité restreinte est d'associer le tempset l'espace, notions totalement disjointes dans la mécanique newtonienne quipostule un temps absolu et un espace absolu. C'est une association sous formed'un espace-temps dans lequel un événement est défini par quatre coordonnées :trois coordonnées d'espace et la coordonnée temps. Rien de nouveau en apparence,sauf que les quatre coordonnées sont liées et qu'un changement de système deréférence les affecte nécessairement toutes les quatre. C'est la raison pourlaquelle on appelle ce temps dans un tel système, le temps-coordonnée. On définitainsi une distance généralisée entre deux évènements proches dans le temps etl'espace est:

ds2 = dx2 + dy2 + dz2 - c2dt2,

où c est la vitesse de la lumière. La quantité ct a la dimension de coordonnéed'espace tout comme x, y et z. C'est cette variable t qui est appelée temps-coordonnée.

Page 33: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

- Temps propre et temps-coordonnée

Considérons maintenant deux évènements qui concernent le même objetfixe dans le référentiel choisi (par exemple en son origine). Alors, on a dx = dy = dz= 0 et, par suite, on a

ds2 = - c2dτ2.

Ce nouveau temps, lié à l'objet, que nous notons r est appelé temps propre,c'est-à-dire celui de l'objet. On peut dès lors écrire la relation fondamentaleprécédente (ou métrique) de la manière suivante :

ds2 = - c2dτ2 = dx2 + dy2 + dz2 - c2dt2.

En introduisant cette fois les vitesses définies dans le système decoordonnées (donc par rapport au temps-coordonnée), on obtient

c2(dτ/dt)2 = c2 -V2.

On en déduit que, dès qu'il y a mouvement, le temps propre se déroule pluslentement que le temps-coordonnée et que c est la plus grande vitesse possible.

- Le diagramme de Minkowski

Visualisons ceci dans le plan x-t (on supposera y = z = 0). On y définit unangle (ou cône en dimensions supérieures) qui représente la trajectoire de lalumière. On l'appelle diagramme de Minkowski ou cône de lumière (voir lafigure 1, page 9).

Notons d'abord que sur l'axe Ot correspondant à x = y = z = 0, c'est-à-dire àl'origine des axes de coordonnées, la vitesse est nulle et on a dτ/dt = 1. Letemps-coordonnée y est égal au temps propre :

τ = t.

Sur le cône de lumière, les génératrices représentent le mouvement de lalumière qui atteint l'observateur à l'instant t = 0. Dans ce cas V = c et parconséquent, on a

dτ/dt = 0.

Les photons de lumière ne vieillissent pas au cours de leur trajet, aussigrand soit-il.

Ce cône est le lieu de tous les événements visibles à l'instant t = 0 par O.

Page 34: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

Le cône de lumière délimite trois portions d'espace :

- Le passé absolu, correspondant à tous les évènements pour lesquelsla lumière qui aurait été envoyée lors de cet événement auraitatteint O (sur l'axe Ot) en un instant passé (t = τ < 0).

- Le futur absolu, symétrique du passé absolu par rapport à l'origine,correspondant à tous les évènements qui verront la lumière émisepar 0 en un temps τ = t > 0.

- L'ailleurs absolu, en dehors du cône de lumière, comprend tous lesautres évènements qui auront été inaccessibles à O à tout instant dupassé et jusqu'à un certain temps t0 > 0 où il seront vus par O et àpartir duquel ces évènements passeront au passé absolu.

- Observation d'un objet de vitesse non nulle

Si maintenant on considère un objet se déplaçant à la vitesse V. Onconstate que (dτ/dt)2 = 1 - (V/c)2 . Le temps propre s'écoule plus lentement que letemps coordonnée qui est, on l'a vu, le temps propre de l'observateur immobile.

Visualisons ceci sur un exemple (voir la figure 2, page 9) Donnons nousdeux miroirs parallèles A et B séparés par une distance L. Une impulsionlumineuse est émise en A et se réfléchit en B puis revient en A et ainsi de suite.Le temps de parcours en un sens, mesuré dans l'environnement de l'expérience(système de référence S1) est

t = L/c.

Un observateur mobile avec une vitesse v parallèle aux miroirs (systèmeS2) mesure aussi le temps de parcours de la lumière entre les miroirs. Au bout dutemps t', les miroirs semblent s'être déplacés de la quantité vt' (segment BB').Donc pour cet observateur, le chemin parcouru par la lumière est AB' mais,comme la lumière ne peut pas dépasser la vitesse c dans n'importe quel systèmede référence, il constatera que la vitesse est toujours c et le temps, t'. Dans letriangle ABB', appliquons le théorème de Pythagore pour obtenir :

AB'2 = c2t'2 = v2t'2 + L2.

En résolvant par rapport à t', on trouve dans ce cas,

t' = (L/c)(1 - V2/c2)-1/2.

Page 35: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

On voit que le temps t' mesuré dans le système S2, qui est un tempscoordonnée, est supérieur au temps propre t mesuré dans S1. Cette relation peutaussi être déduite directement des équations de Lorentz.

Une illustration frappante est donnée par l'expérience virtuelle dite duparadoxe du voyageur de Langevin. Ce voyageur quitte O avec une très grandevitesse, voisine de la vitesse de la lumière jusqu'à atteindre le point J1. Puis ilrevient vers son point de départ et y arrive en J2. Il se retrouve à son point dedépart avec un âge inférieur à celui de son jumeau resté immobile. Il a vécu moinslongtemps. Pourtant, à l'intérieur de son véhicule, le temps ressenti — le tempspropre τ de la capsule — était inchangé et les horloges ont continué à fonctionnercomme si de rien n'était. Pour décrire plus exactement la relation entre τ et letemps-coordonnée t, il faudrait tenir compte des accélérations subies par levoyageur pour atteindre sa vitesse de croisière, puis pour faire demi-tour et enfinralenti à l'arrivée. Ce calcul doit être fait dans le cadre de la Relativité générale.

Notons encore que, par suite de l'association temps — espace en Relativitérestreinte, on constate parallèlement que la longueur d'une règle en mouvementrelatif par rapport à un observateur fixe sera, dans le repère fixe, contractée dansla direction du mouvement alors que dans la capsule, sa longueur paraîtrainchangée. Cela résulte d'ailleurs de l'expérience décrite précédemment.

En résumé, le fait essentiel de la Relativité restreinte est la distinctionentre le temps propre et le temps-coordonnée (et la longueur propre et lalongueur-coordonnée). Auparavant, ces deux notions étaient confondues, et parsuite ces distinctions n'étaient même pas imaginées. C'est ce qui fait la difficultéoù l'on se trouve pour concevoir cette relativité, cette multiplicité du temps avectoutes les conséquences décrites ci-dessus et qui seront confirmées par laRelativité générale qui y ajoutera d'autres paramètres.

Relativité g énérale

Bien qu'à quatre dimensions liées entre elles, l'espace-temps de larelativité restreinte est plat. Il est euclidien et la lumière s'y propage en lignedroite dans le vide. L'apport de la Relativité générale a été de dire que lagéométrie de l'espace-temps dépend de la présence de masses qui rendent cetespace non-euclidien (courbe).

D'après la loi de Newton de la gravitation universelle, les masses créent enun point A un potentiel qui est la somme des potentiels produits par chacun deséléments de masse Mi en présence et a la forme

Ui(A) = Σ GMi/ri,

où G est la constante de la gravitation universelle et ri la distance de ce corps aupoint A. Dans le cas d'un corps en rotation comme la Terre, il faut y ajouter aussi

Page 36: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

l'effet de l'accélération centrifuge. Ainsi, la surface équipotentielle à la surfacedes océans (le géoïde est telle que la gravité qui lui est perpendiculaire, est lacomposition de l'attraction newtonienne et de l'accélération de Coriolis.

- L'espace-temps en Relativité générale

En Relativité générale, même s'il y a une quantité, dite potentiel, qui décritles accélérations et qui s'exprime, à une très bonne approximation près, de lamême manière, la gravité ne résulte plus d'une action à distance, mais est unepropriété intrinsèque de l'espace-temps. En effet, c'est à travers cette quantitéque la présence de matière modifie la métrique L'expression la plus simple decette métrique, arrêtée au second ordre de la petite quantité 1/c est

ds2 = - c2dτ2 = (1 + 2U/c2)(dx2 + dy2 + dz2 ) - (1 - 2U/c2)c2dt2,

ou, en considérant les vitesses,

c2(dτ/dt)2 = (1 - 2U/c2)c2 - (1 + 2U/c2)V2.

Ainsi, les propriétés de l'espace ne sont plus linéaires (ou euclidiennes)comme c'est le cas de la Relativité restreinte. On dit de façon imagée que l'espaceest courbe. Le mouvement d'un point matériel est uniquement régi par cettedescription des propriétés de l'espace. Il n'y a plus attraction des corps les uns parles autres, mais c'est une propriété intrinsèque de l'espace-temps qui impose unmouvement dont la cinématique est définie par la courbure de l'espace et lavitesse initiale de l'objet. En particulier, les photons suivent une géodésique decet espace ce qui produit, au voisinage des masses une déviation des rayonslumineux par rapport à une trajectoire rectiligne (qui est une géodésique del'espace plat de la Relativité restreinte).

- Propriétés du temps en Relativité générale

En particulier, si on considère un point immobile (V = 0), et si on appliquel'équation précédente, on obtient

(dτ/dt)2 = 1 - 2U/c2.

Le temps propre diffère du temps-coordonnée par une quantité qui dépenddu potentiel. Si celuici change, le rapport dτ/dt change Sans entrer dans le détaildes calculs, dans lesquels il ne faudrait pas non plus négliger V, on obtient lespropriétés suivantes du temps qui ont toutes été bien vérifiées.

1°) Les horloges paraissent avoir une marche différente à des altitudesdifférentes. Cette propriété a été vérifiée d'abord à l'aide d'horloges embarquéessur des fusées. Il est actuellement possible de la vérifier entre la cave et un étagesupérieur d'un immeuble. On constate que les fréquences émises par des horloges

Page 37: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

identiques préalablement comparées côte à côte sont devenues différentes. Ladifférence entre les dτ/dt au voisinage de la Terre est de l'ordre de 10-13 parkilomètre.

2°) L'effet de la vitesse sur ces mêmes horloges a été mesure plaçant des horlogesidentiques sur des avions faisant le tour de la Terre dans des sens différents.Notons aussi que l'accroissement de la durée apparente de vie de ions radioactifslancés dans des accélérateurs de particules correspondent au même phénomènedont une partie seulement est expliquée par la Relativité restreinte, puisque lemouvement n'est pas rectiligne et subit donc des accélérations.

Conclusions

L'essentiel des propriétés du temps était déjà présent dans la théorie de laRelativité restreinte, la Relativité générale les compliquant par suite de l'actiondes masses sur l'espace-temps.

Tant que l'observateur reste dans son "cocon", il est soumis à son tempspropre. Il peut l'étendre à son environnement proche, tant que les différences devitesse ou de potentiel peuvent être négligées. Cet environnement est d'autantplus grand que la précision avec laquelle il a besoin d'observer ou d'agir est faible.Dans cet environnement, il confond le temps propre et le temps coordonnée. Il estau centre de son "Univers" et utilise son temps propre. Dans cette bulle, toutesles propriétés du temps absolu sont vérifiées et son "bon sens" ne le trompe pas.Il peut appliquer à son temps les trois propriétés newtoniennes relatives à lachronologie, à la simultanéité et à la durée. Ainsi, toutes les lois de la physique ysont vraies.

En revanche, dès qu'il s'écarte de son environnement (qui peut être trèspetit si le potentiel est très fort comme autour des pulsars ou des trous noirs) etqu'il considère des évènements plus lointains, le temps qu'il utilise est le tempscoordonnée et non plus son temps propre dans lequel il est habitué à penser.Toutes les propriétés de ce temps sont liées au fait que les théories de laRelativité ont accru la complexité de la structure géométrique et cinématique del'Univers et on ne peut plus en faire une description linéaire qui est celle du "bonsens". Résumons-en les conséquences.

1°) La durée. L'exemple du voyageur de Langevin montre de façon frappante quela mesure de la durée entre deux évènements (le départ et l'arrivée du voyageur)dépend des références de celui qui la mesure. La dépendance vis-à-vis dupotentiel renforce encore le caractère non absolu de cette notion.

2°) La simultanéité. Comme la durée, c'est une notion également relative àl'observateur. Pour démontrer la simultanéité de deux évènements, il faut queleurs instants soient déterminés par des horloges marquant la même heure etayant la même marche. C'est le problème de la synchronisation d'horloges situées

Page 38: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

à des potentiels différents et en mouvement l'une par rapport à l'autre. Or, ondémontre que la synchronisation n'est pas transitive. Si les horloges A et B sontsynchronisées et si B et C sont aussi synchrones, les horloges A et C ne sont pasen général synchrones. Il s'ensuit que deux évènements P et Q qui sont observésen un lieu donné comme s'étant produits au même moment, ne le seront pas dansle système de référence d'un autre observateur. Ainsi encore, la notion desimultanéité absolue n'existe pas.

3°) La chronologie. Dans un environnement proche, là où le temps propre est uneapproximation adéquate du temps-coordonnée, la relation entre la cause et leseffets est vérifiée, et il n'y a pas de retour en arrière. En revanche, la vision dumonde, qui est nécessairement liée aux référentiels, peut inverser la chronologie.En effet, considérons les évènements P et Q ci-dessus, qui sont simultanés pourun observateur et ne le sont pas pour d'autres. Un observateur estimera que Pprécède Q, alors qu'un autre arrivera à la conclusion opposée, inversant ainsi lachronologie de ces évènements.

Page 39: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

9

Figure 1 - Cône de lumière et voyageur de Langevin

Figure 2 - Visualisation de la dilatation du temps

Page 40: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

À propos du temps.Quelques notes suite à l’exposé de Jean Kovalevsky

Par Éric Bois

« La vision de l’espace et du temps que jesouhaite vous exposer a germé sur le sol de laphysique expérimentale d’où elle puise saforce. Elle est radicale. Désormais l’espace ensoi, le temps en soi, sont déclarés relégués auroyaume des ombres, et seule une sorted’union des deux pourra préserver une réalitéindépendante. » (Minkowski, 1908)

- La relativité restreinte

« La théorie de la relativité restreinte, nous dit Einstein en 1949, aconduit à une claire intelligence des concepts d’espace et de temps et,par suite, à faire connaître le comportement des règles et des horloges enmouvement. Elle a en principe éliminé le concept de simultanéitéabsolue et, par là, celui d’action instantanée à distance dans le sens deNewton... […] Elle a montré quel rôle joue la constante universelle c(vitesse de la lumière) dans les lois de la nature et démontré qu’il y aune connexion étroite entre la forme sous laquelle le temps, d’une part,et les coordonnées d’espace, d’autre part, entrent dans les lois de lanature. »1

La théorie de la relativité restreinte n’est pas en profondeur réductible àune théorie de la relativité du temps ou des longueurs d’espace. Il s’agit en faitd’une théorie de recomposition cinématique de l’espace-temps sur la base del’invariance des équations de Maxwell. La lumière se déplace à la même vitesse cdans tous les référentiels et par conséquent c peut être reçue comme une vitesselimite. Autrement dit, la vitesse de la lumière est interprétée comme la constantede structure de l’espace-temps.

- La relativité générale

Le principe de relativité générale traduit une extension majeure du principede relativité, ce qui signifie donc une extension de l’idée d’invariance formelle deslois de la nature (ici la gravitation) par changement de référentiels.

« Les lois de la nature doivent être formulées de telle sorte que leurforme reste identique pour des systèmes de coordonnées dans n’importequel type d’états de mouvement. »2

1 Einstein (1949).2 Einstein (1940).

Page 41: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

C’est là le souhait d’Einstein. Le principe de relativité générale, sur la basedu principe d’équivalence entre la masse inerte et la masse pesante, conduit àune véritable théorie de la gravitation : la théorie de la relativité générale.Schématiquement, celle-ci s’articule autour d’une identification de la gravitationà la géométrie et de la géométrie à la matière. Par la théorie de la relativitégénérale, la gravitation peut être décrite par une variété à quatre dimensionsmunie d’une métrique pseudo-Riemanienne unique.3

La théorie de la relativité générale n’est pas réductible à une extensiongénéralisante de la théorie Newtonienne de la gravitation. En pratique, ce peutêtre le cas, mais tout n’est pas dit ainsi.

Faisant suite à ses illustres prédécesseurs en matière d’exigencesépistémologiques4, Einstein a exprimé à plusieurs reprises son insatisfactioninitiale du concept de temps objectif et de l’idée de simultanéité absolue. Il n’estpas davantage satisfait du principe d’inertie et du principe Galiléen, du conceptde force et de la notion de masse... Einstein fit notamment sa plus grande ruptureavec Newton sur la notion de force d’action instantanée à distance.

- Du sens physique en question

Au cours de sa scolarité, qui n’a pas entendu son professeur de physiqueinvoquer le sens physique comme un impératif nécessaire à la compréhension dela physique ? Mais au demeurant, lors de l’apprentissage de la mécaniqueNewtonienne, vis-à-vis d’une notion de force d’action instantanée à distanceleditdit sens physique devait-il comprendre ou rechigner ? Réclamer l’explication,recevoir la description et "comprendre", est-ce cela le sens physique, ou est-cesuspect ? À titre d’élève stable ou d’étudiant pressé, il vaut mieux comprendre ! Àtitre de chercheur, c’est autre chose. Je me demande encore ce que j’ai pucomprendre de la loi de la gravitation universelle de Newton durant dix annéesde bonnes notes !?

La théorie de la relativité générale traduit la réalité physique par unchamp continu. De ce fait, les étoiles, ou les planètes par exemple, ne sont plus àconsidérer comme des systèmes discrets de points matériels isolés les uns desautres. Mais il s’agit d’un champ de gravitation où les masses "particulières" - lesétoiles et les planètes - sont comprises comme des singularités de ce champ. Larelativité générale postule alors une interaction, fortement non-linéaire, entre lacourbure de l'espace-temps et la distribution locale de matière-énergie.

Une des confirmations expérimentales de la théorie de la relativitégénérale fut l’observation de la déviation de la lumière par le champ de

3 L’admission de transformations de coordonnées non-linéaires comme transformations entre systèmes decoordonnées équivalents et par suite l’admission de systèmes de coordonnées curvilignes arbitraires danslesquels les champs sont décrits par des fonctions régulières constitue la souche du principe de relativitégénérale.4 Tels que Leibniz, Riemann, Mach et Minkowski dans la veine des critiques du temps et de l’espace absolus.

Page 42: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

gravitation d’une étoile. Comment des photons de masse nulle pourraient-ilssubir la gravitation ? C’est là le génie d’une théorie constitutive5 lorsqu’ellerestaure le sens physique ! Ce n’est pas le rayon lumineux qui est déformé parune "force" de gravité, c’est l’espace-temps qui est déformé par la présence dematière. La gravité est une propriété de l’espace-temps lui-même. Selon unesynthèse fameuse de J. A. Wheeler :

L’espace-temps courbe indique aux particules comment se mouvoir et lamatière indique à l’espace-temps comment se courber.

Par cette réciprocité, le contraste est frappant avec la vision Newtonienneoù tel n’est pas le cas.6

- Du temps extrinsèque au temps intrinsèque

« Il est vrai qu’Aristote dit que le temps est le nombre et non pas la mesuredu mouvement. » 7 Mais quand bien même cette belle formule Leibnizienne puisseparler au sens commun, cela ne dit ni la nature du temps ni la profondeur dumouvement.

Pour Einstein, l’univers était vu comme un continuum non-Euclidien àquatre dimensions. Ces quatre dimensions formant l’espace-temps sont, enrelativité générale, d’une part associées et d’autre part intrinsèques à la matière.La coordonnée de genre temps est associée aux coordonnées de genre espace parune combinaison algébrique définissant une métrique espace-temps d’unetopologie donnée.8

L’espace de cet espace-temps n’est pas un lieu; ce n’est pas non plusl’espace absolu de Newton. Conformément à la relativité générale, le conceptd’espace détaché de tout contenu physique n’existe plus. Et le temps ? Le tempsde cet espace-temps n’est pas un écoulement extrinsèque ; ce n’est pas le tempsabsolu de Newton, cette sorte de vacuité étrangère à Dieu et à l’Univers. Le néantne peut servir de support au temps puisqu’il n’y a rien. La matière physique n’estni dans le temps, ni dans l’espace, mais elle "contient" le temps comme ellecontient l’espace.

Dans cette perspective, l’on ne peut plus considérer le temps et l’espacecomme ayant la capacité d’exister par eux-mêmes. Ainsi une conceptionrenouvelée du temps résultant de l’axiomatique de la physique fondamentalecontemporaine se doit d’intégrer deux notions fortes peu habituelles du sens

5 Par rapport au statut simplement descriptif de la notion de force Newtonienne.6 Dans la vision Newtonienne, la force indique à la masse comment s’accélérer (F=ma) et la masse indique àla gravité comment exercer une force (F=GMm/r2). L’inertie résiste à l’accélération relativement à l’espace.L’espace agit sur les objets, mais les objets n’agissent pas sur l’espace.7 Leibniz, Nouveaux Essais II 14, 22.8« Par ce procédé [dès la Relativité Restreinte avec la transformation de Lorentz] le temps perdit soncaractère absolu et fut adjoint aux coordonnées spatiales comme une grandeur ayant presque le même typealgébrique. Le caractère absolu du temps et particulièrement celui de la simultanéité était détruit et ladescription quadridimensionnelle fut introduite comme la seule qui fut adéquate. » (Einstein 1936).

Page 43: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

commun : le temps comme notion intrinsèque à la matière et le temps commegenre associé au genre espace. L’espace-temps, en tant que variété à quatredimensions, est une structure "mêlée".

- Conclusion

La relativité générale fait de l’espace-temps une structure physique. C’estl’expansion de cet espace-temps qui traduit l’essence et l’armature descosmologies relativistes actuelles. Pour la cosmologie relativiste, la dilatation del’espace-temps courbe est la signification de l’expansion de l’univers. L’espace-temps courbe traduit comme une structure constitutive de la matière complète etexistante et de sa morphogenèse en acte.

…L’existence de la structure espace-temps est-elle la condition d’existence dutemps comme « écoulement » ? Il n’est pas exclu que l’existence même du tempspossède un « commencement » au sens d’une naissance. Mais une conditiond’existence ne produit pas l’être...

Le temps ouvre certes à la métaphysique, mais sa philosophie demeurebien loin de constituer un traité définitif ! Néanmoins, la notion de temps auraconnu un changement radical de statut conceptuel, sur le terrain de la physiquefondamentale. 9

Références bibliographiques

- Œuvres d'Albert Einstein - Ces textes sont rassemblés dansEinstein/Conceptions Scientifiques, Flammarion, Champs, 1990.

1919 - Qu’est-ce que la théorie de la relativitéÊ ?1936 - Physique et Réalité1940 - Fondements de la physique théorique1946a - E=Mc2

1946b - Une démonstration élémentaire de l’équivalence de la masse etde l’énergie1949 - La théorie de la Relativité1950 - Sur la théorie de la gravitation généralisée.

- Minkowski, H., 1908, "Discours donné lors de la 80e Assemblée des physicienset scientifiques allemands", Cologne, sept. 1908, dans The Principle ofRelativity, H.A. Lorentz, A. Einstein, H. Minkovski and H. Weyl (Eds.), Dover,New York (1952).

9 « Le manque d’exactitude qui, du point de vue de la signification empirique, est attaché à la notion detemps dans la mécanique classique était masqué par la représentation axiomatique de l’espace et du tempscomme choses existant indépendamment de nos sens. Une telle "substantialisation" n’est pas nécessairementdommageable à la science. Mais il est facile de commettre l’erreur de considérer de tels concepts, dont on aoublié l’origine, comme nécessaires à toute pensée, et par là même immuables, et ceci peut constituer undanger sérieux pour le progrès de la science. » Einstein (1936).

Page 44: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

Page 45: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

Relativité et mesure du temps

par Gérard Petit*

Il n’est évidemment pas question de traiter ici tous les aspects qu’un teltitre peut recouvrir, je veux simplement rappeler quelques concepts de base etillustrer par quelques exemples l’importance de la théorie de la relativité dans lesactivités liées à la mesure du temps, et donc dans notre vie quotidienne.

Horloges et durées, échelles de temps et dates

Que mesure une horloge ? Le temps, bien sûr, mais doit-on encore une foisposer la question de sa définition ? Pour éviter d’utiliser continuellement ce motaux multiples significations, nous dirons que ce qu’une horloge est capable demesurer est une durée, l’intervalle de temps entre deux événements qui sepassent dans le voisinage de l’horloge (entre un top départ et un top arrivée).Cette notion de voisinage est fondamentale dans la théorie de la relativité car ellepermet de définir les quantités dites propres, directement mesurables parl’observateur, en particulier le temps propre d’une horloge.

Mais il est évident qu’on a également besoin (par exemple pour les étudesdes astronomes qui peuvent s’étendre sur des siècles et des domaines d’espacetrès grands) d’une référence plus continue, plus "éternelle" que la seule mesurelocale des durées. Cette référence doit aussi permettre de comparer desévénements en des endroits différents : c’est une "échelle de temps". La date estla graduation d’une échelle de temps. Ceci nous fournit même la meilleuredéfinition possible d’une échelle de temps : « un système non ambigu de datationdes événements ». La notion correspondante en relativité est le temps-coordonnée.

Ces deux concepts, mesure de durée et échelle de temps, ont coexisté etprogressé en parallèle pendant des millénaires, mais sans jamais se recouvrir. Laraison principale en est que les appareils que l’homme a inventés pour mesurercommodément les durées étaient moins stables à long terme que les phénomènesqui servaient de référence (le tout premier d’entre eux étant la rotation de laTerre). Inversement ces références stables ne sont pas utilisables en pratiquepour mesurer des durées, surtout très courtes (imaginons chronométrer unecourse de sprint avec un cadran solaire). Au fil des siècles, cette dualité durée /échelle de temps a été réalisée de plusieurs manières, dont on trouvera unrésumé dans le Tableau 1.

* Pavillon de Breteuil. 92312 Sèvres Cedex.

Page 46: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

Tableau 1 : Résumé historique des techniques utilisées pour mesurer les duréeset pour définir une échelle de temps

Période Horloge stabilité Echelle de temps stabilité

Antiquité « Sablier » 10-3 Rotation de la Terre 10-4-10-6

XVIIe-XVIIIe

sièclesChronomètre mécanique 10-5-10-6 Rotation Terre /

Orbites10-6-10-7

XXe siècle Quartz 10-7-10-9 Orbite Terre et Lune 10-9-10-10

Années 1960 Transition état atomique 10-12>1015 Transition étatatomique

10-12>1015

Dès l’Antiquité, les hommes ont mis au point des systèmes ingénieuxutilisant la régularité de l’écoulement du sable ou d’un liquide (clepsydre) pourmesurer les durées. Par contre c’est le cycle des jours, c’est-à-dire la régularité dela rotation de la Terre, qui sert de base à l’échelle de temps. Les premierschangements vraiment importants sont intervenus aux XVIIe et XVIIIe siècles.La révolution technologique issue de la Renaissance a permis de développer desmachines nouvelles pour mesurer les durées, comme le pendule ou lechronomètre. L’essor des voyages maritimes lointains et la nécessité de connaîtrel’heure pour trouver sa longitude en mer ont beaucoup contribué à cesdéveloppements. Par ailleurs, c’est toujours la rotation de la Terre qui sert debase à l’échelle de temps, mais la théorie s’est considérablement améliorée. Acette époque ont lieu également deux progrès essentiels: d’abord des innovationstechniques (comme le télescope) améliorent considérablement les mesuresastronomiques, ensuite les lois de la gravitation ont été découvertes ce qui faitqu’on commence à considérer les mouvements orbitaux sous l’aspect de leurrégularité.

Au début du XXe siècle, un nouveau bond technologique : les vibrations decristaux de quartz permettent de mesurer encore mieux les durées. D’autre partles astronomes découvrent que le mouvement des corps célestes (Terre autour duSoleil, Lune autour de la Terre) est plus stable que la rotation de la Terre etdevrait donc servir de base à l’échelle de temps ; cette échelle s’appelle le tempsdes éphémérides.

Depuis quelques dizaines d’années, ce sont les horloges atomiques, baséessur la fréquence associée à une transition atomique, qui permettent de mesurerles durées de la manière la plus précise. On a pu gagner en moins de 50 ans sixordres de grandeur sur l’instabilité relative de fréquence des horloges, le mêmefacteur que pendant les 3000 ans précédents. Mais l’événement nouveau est quece sont aussi les horloges atomiques qui permettent de former de la façon la pluspratique et la plus précise une échelle de temps. Et donc, alors que pour la

Page 47: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

première fois une seule et unique technique (l’horloge atomique) mesure lesdurées et forme l’échelle de temps, la précision obtenue nous oblige à prendre encompte la théorie de la relativité dans laquelle les concepts de durée et échelle detemps se retrouvent justement dans deux quantités fondamentalementdifférentes, le temps propre et le temps-coordonnée…

La relativité : Temps propre et temps-coordonnée

Le temps propre a une définition locale et, stricto sensu, il ne peut êtreutilisé que localement, c’est-à-dire au voisinage immédiat de l’instrument qui leréalise. On peut le définir comme « ce qui est indiqué par une horloge idéale »,ainsi que l’a suggéré Einstein (« ce qu’indique l’aiguille de ma montre.. »).

Le temps-coordonnée (coordonnée de temps) est purement conventionnel etn’a pas de représentation physique directe. Mais il a une portée globale, il estdéfini et peut être utilisé partout. Il permet de dater de manière unique et nonambiguë tout événement. Ainsi alors que deux observateurs assigneraient unedate différente à un même événement s’ils utilisaient leur horloge propre, ilsdoivent trouver la même date s’ils utilisent un temps-coordonnée. Autreavantage, le temps-coordonnée permet à quelqu’un qui n’a pas pu observer unévénement, ou même pour qui cet événement était totalement inobservable, del’utiliser comme s’il en avait été témoin et s’il l’avait daté avec son horloge. Leprix à payer est que, pour convertir le temps propre d’une horloge en temps-coordonnée, il faut établir une théorie et faire des calculs.

Dans la vie courante, c’est un temps-coordonnée qui permet à tousd’utiliser une échelle commune pour dater les événements. Notons que, par lamême occasion, on a aussi choisi une définition de la simultanéité : deuxévénements sont simultanés s’ils ont la même date en temps-coordonnée. SurTerre, le temps-coordonnée couramment utilisé est UTC, le temps universelcoordonné. Dans chaque pays le temps civil est, en général, formé en ajoutant ouretranchant un certain nombre d’heures à UTC.

La relativité dans la vie de tous les jours

Bien que la distinction entre temps propre et temps-coordonnée soitfondamentale, il est difficile de l'imaginer car elle échappe à notre expériencehabituelle : ainsi si l’on se contente d’une précision d’une milliseconde sur lasynchronisation de deux horloges ou la datation d’un événement, ces distinctionssont encore superflues. Mais en fait nous utilisons tous les jours sans nous enrendre compte des techniques qui ne fonctionnent que parce qu’il existe deshorloges atomiques et qu’on peut synchroniser ces horloges ou dater unévénement avec une précision d’une microseconde, voire quelques nanosecondes.Citons les télécommunications, dont les besoins augmentent constamment, etsurtout les méthodes de positionnement radio par satellite. Ainsi le GlobalPositioning System américain (GPS) a besoin des meilleures horloges atomiquesà bord de ses satellites et sur Terre. Dans ces systèmes, il est nécessaire deprendre en compte la théorie de la relativité. Ne pas le faire induirait, par

Page 48: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

exemple, une erreur de plusieurs dizaines de mètres sur le positionnement parGPS.

Nous avons donc (de plus en plus) besoin d’introduire des « effetsrelativistes » dans de nombreux domaines (je devrais dire plus correctementtraiter de manière relativiste de nombreux domaines). Ces effets relativistes sontde deux ordres, ceux qui tiennent à la différence entre temps propre et temps-coordonnée, ou entre les temps propres de deux horloges, et ceux qui tiennent à lapropagation des signaux radioélectriques : ainsi la différence entre le temps-coordonnée de propagation et « la durée calculée en divisant la distance par lavitesse de la lumière » ou la différence entre la trajectoire d’un photon et la« ligne droite ». Ces effets ne sont pas toujours simples à modéliser précisément,mais il est assez facile d’en évaluer un ordre de grandeur : la valeur relative del’effet est toujours de l’ordre de v /c où v est la vitesse caractéristique duphénomène par rapport au corps principal (horloge par rapport à la Terre, Terrepar rapport au système solaire, système solaire par rapport à la galaxie) et c lavitesse de la lumière. C’est aussi l’ordre de grandeur du rapport U/c ou U est lepotentiel gravitationnel du corps principal. Les Tableaux 2 et 3 fournissentquelques exemples de l’ordre de grandeur des « effets relativistes » dans demultiples domaines. On voit que, même si les effets les plus importantsconcernent des phénomènes astronomiques, les utilisations de la relativité sontbien à notre porte depuis que les horloges atomiques fournissent une stabilitérelative de fréquence bien meilleure que 10-12.

Tableau 2 : Exemples d’effets relativistes sur les fréquences des horloges

Localisation v /c v2 /c2 -U/c2 Duréecaractéristique

Exemple d’effet

Sur Terre <10-6 <10-12 102 - 105 s(minute-jour)

Comparaisons d’horloges

En orbiteterrestre

10-5 10-10 103 - 105 s(heure-jour)

GPS ; GP-A

Dans lesystème solaire

10-4 10-8 107 s(mois-an)

Orbites des planètes ;compa-raison horloges avecpulsars

Dans la galaxie 10-3 10-6 1014 smillions années)

Comparaison horloges avecorbite pulsars binaires(futur ?)

Au voisinaged’une étoiledense

10-2-103 10-4 – 10-6 104 s(heures)

Période d’un pulsar dans unsystème binaire

Page 49: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

Tableau 3 : Exemples d’effets relativistes sur la propagation des signaux

Localisation Durée del’effet

Retardinduit

Valeurrelative

Exemple d’effet

En orbiteterrestre

10-1 s 10-11 s 10-10 Transmission de signauxradioélectriques (GPS etc..)

Dans lesystème solaire

103 s 10-5 s 10-8 Retard des signaux radioDéflection de la lumière

Au voisinaged’une galaxie

1011 s 105 s 10-6 Lentilles gravitationnelles(déflection et retard)

Au voisinaged’une étoiledense

1 s 10-5 s 10-5 Retard des signaux d’un pulsardans un système binaire

Page 50: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

Temps et relativité générale - Débat

Intervenants : Hervé Zwirn, Bernard d'Espagnat, Jean Kovalevsky, Gérard Petit,Dominique Laplane, Anne Dambricourt,

Hervé Zwirn

Je souhaiterais apporter une précision sur un aspect que l'on n'a faitqu'effleurer mais qui me semble extrêmement important lorsque l'on parle de larelativité restreinte ou de la relativité générale. Il s'agit d'aborder ces théoriessous l'angle de leur signification physique. La mécanique newtonienne repose surle principe de relativité galiléenne, qui stipule que les lois de la mécanique ont lamême forme dans tous les référentiels galiléens, c'est-à-dire les référentiels quisont en mouvement rectiligne uniforme. Ceci signifie simplement que pourconnaître la forme des lois de la mécanique quand on passe d'un référentielgaliléen à un autre, on applique des règles, qu'on a appelées "transformation deGalilée", et l’on trouve des lois de forme identique dans le nouveau référentiel.Or, il se trouve que, contrairement aux lois de la mécanique newtonienne, les loisde l'électromagnétisme de Maxwell ne sont pas invariantes lors d'unetransformation de Galilée. Le principe de relativité restreinte stipule alors queles lois de l'électromagnétisme doivent, elles aussi, êtres invariants lors d'unchangement de référentiel galiléen. Il devient donc nécessaire de remplacer latransformation de Galilée par une nouvelle règle de transformation qu'on appelle"la transformation de Lorentz". La relativité restreinte est la théorie qui étendl'invariance des lois de lois de la nature, lors d'un changement de référentielgaliléen, à l'électromagnétisme. C'est un point important dans la mesure où celaa une signification physique profonde : cela signifie que, lorsqu'on est dans unréférentiel galiléen, il est impossible de mettre en évidence un mouvementabsolu, que l'on fasse des expériences de mécanique — et cela était déjà vrai enmécanique newtonienne avec le principe de relativité galiléenne — ou desexpériences d'optique (comme la mesure de la vitesse de la lumière) — ce qui là,était faux en mécanique newtonienne. La relativité générale peut alors être vuecomme une généralisation supplémentaire selon laquelle cette invariance detoutes les lois de la nature doit être préservée même quand on se place dans desréférentiels dans lesquels règne un champ gravitationnel. C'est ce point de vuequi a guidé Einstein dans sa construction des théories de la relativité restreinteet générale et non le résultat négatif de l'expérience de Michelson et Morley (quia montré que la vitesse de la lumière était une constante).

Bernard d’Espagnat

Je crois d’ailleurs qu’Einstein a dit lui-même que ce n’était pas l’expériencede Michelson et Morley qui l’avait motivé.

Page 51: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

Jean Kovalevsky

Je pense tout de même que, bien que ce ne soit pas précisémentl’expérience de Michelson et Morley qui l’ait motivé, les transformations deLorentz étaient bien connues à cette époque. Or, les formules de Lorentz (qui serapportent effectivement à des phénomènes électromagnétiques puisque lavitesse de la lumière y joue un rôle fondamental) et la métrique (le ds2 ) de larelativité restreinte sont équivalents et on passe de l’une à l’autre par un calculalgébrique simple.

Gérard Petit

Il est bien clair que cela a été une approche d’unification pourl’électrodynamique qui a guidé Einstein.

Bernard d’Espagnat

La phrase de Minkowski citée par Eric Bois nous dit en somme que ce quicompte, ce n’est pas la position en soi, ni le temps en soi mais que c’est le mélangedes deux, c’est-à-dire l’événement. Désormais, la réalité en soi, la réalitéindépendante, ce ne sont pas les objets, à tel ou tel instant, mais ce sont lesévénements : c’est-à-dire l’association entre un point de l’espace et un instant dutemps. Cette idée a donc constitué une étape par rapport à la vision antérieuredans laquelle la réalité était essentiellement associée à la notion d’espace. Jepense qu’avec la mécanique quantique, que nous aborderons plus tard, unenouvelle étape sera probablement à franchir en ce sens qu’avec la relativité,qu’elle soit restreinte ou générale, l’on peut encore considérer que les événementssont des événements de la réalité en soi. Alors que lorsque l’on aborde lamécanique quantique, cela devient très difficile de considérer même que lesévénements sont des éléments de la réalité en soi. Ceci me conduit à une autreréflexion à propos de cette notion de sens physique qu’Eric Bois a évoqué. Qu’est-ce, au juste, que le sens physique ? C’est discutable. Mais je crois que ce que lesprofesseurs et les physiciens en général entendent par sens physique, c’estquelque chose qui se rapporte beaucoup à l’expérience, c’est-à-dire à ce que nousfaisons. Cela se rapporte à la réalité, bien entendu — on s’exprime en terme dechoses qui existent réellement — mais, lorsque l’on veut vraiment préciser leschoses, l’on finit par dire : « si on fait ça, on observe ça », et c’est ça le sensphysique finalement. C’est comme cela que l’on départage ce qui a un sensphysique de ce qui est problématique ou philosophique ou conjectural, etc… De cepoint de vue-là, le premier raisonnement d’Einstein — celui qu’il a publié dansson premier papier — est instructif, car il raisonne sur les signaux que l’on peutenvoyer. Il est très « opérationaliste ». Ensuite, Einstein est devenu réaliste, celaest bien connu. Il est allé de l’instrumentalisme vers une position plus réaliste,qui est la position de l’Einstein d’âge mûr. A priori les deux points de vue sontlégitimes naturellement.

Page 52: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

Dominique Laplane

Les physiciens se considèrent-ils comme satisfaits du système, ou y a-t-ilencore des choses qui ne collent pas, comme il y avait des choses qui ne collaientpas dans le système newtonien ? Certains faits restent-ils à expliquer ? A-t-onbesoin d’une autre théorie plus complète ?

Jean Kovalevsky

Je dirais que nous ne sommes pas satisfaits. Je pense que Bernardd’Espagnat peut le dire mieux que moi. Cette relativité générale nous satisfaitpleinement lorsque nous sommes dans le cadre de l’astronomie, et de façongénérale de la mécanique et de la physique des corps macroscopiques. Mais larelativité et la théorie quantique ne font pas vraiment bon ménage actuellementdans la théorie des particules. La synthèse n’existe pas. De même, une desconséquences de la relativité générale n’a pas été observée directement encorebien qu’on en ait des preuves indirectes : c’est le rayonnement gravitationnel. Undes effets a pu être démontré sur un pulsar double, mais on a pas d’observationssur terre ; peut-être parviendrons-nous à en avoir dans 10 ans ? Or, l’existencemême de ces ondes gravitationnelles, nous conduit à un quatrième typed’interaction. Là, la grande unification n’existe pas. Et cela est égalementquelque chose qui ne nous satisfait pas totalement.

Gérard Petit

Même si une théorie explique tout ce qui est disponible à l'instant " T ", leschercheurs doivent faire leur possible pour voir si elle s'applique encore un ordrede grandeur plus loin. Il n'y a pas d'arrêt à la marche vers des expériences plusprécises, par exemple tester des phénomènes comme les ondes gravitationnelles.La plupart des physiciens sont persuadés qu'elles existent. Si l'on prenaitl'optique qu'il n'y a aucune raison qu'elles n'existent pas, ce ne serait pas la peinede faire des expériences pour essayer de les détecter. Mais même si on est sûrqu'elles existent, cela vaut de toute façon la peine de faire ces expériences, carune fois que l'on aura ces techniques pour les détecter, on pourra utiliserl'information qui est dans ces zones gravitationnelles pour mieux connaîtrel'univers.

Anne Dambricourt

J’ai une question en rapport avec ce que j’essaye de comprendrequotidiennement : c’est-à-dire la notion de durée dans le domaine de la biologie.Le problème sur lequel je tombe, c’est toujours le rapport entre durée, causalité etacausalité. Et quel peut-être l’équivalent physique entre deux instants qui sesuivent, une simultanéité qui devient une seconde simultanéité, on dira qu’il y aune causalité si l’instant « t2 » est historiquement lié à « t1 ». Ma question est desavoir quel est l’équivalent physique entre deux instants qui se suivent et quin’ont pas de rapports de causalité et deux instants qui se suivent, « t2 » étant uneforme « évoluée » de « t1 » ? Quel est, en terme physique et dans cette

Page 53: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

connaissance du temps, l’équivalent de la causalité et quelle peut être la sourced’une acausalité ? Qu’est-ce que l’acausalité en science du temps ?

Eric Bois

La causalité usuelle stipule une relation d'antécédent à conséquent selon, atitre principal, un principe d'antériorité temporelle. Le statut du temps de ceprincipe est celui du temps newtonien. Par définition, l'a-causalité, au sens d'unerupture du principe de causalité usuelle, ne respecte pas l'antériorité temporellede l'antécédent sur le conséquent, c'est-à-dire de la cause sur l'effet.

Gérard Petit

Il est possible de construire un temps-coordonnée dans lequel le principe decausalité est respecté. C'est-à-dire que si deux événements ont une relation decausalité, la coordonnée de temps du deuxième est supérieur à la coordonnée detemps du premier. L'on peut construire à peu près n'importe quel temps-coordonnée mais il est possible d'en construire qui respectent ce principe decausalité, et qui sont naturellement donnés par les métriques que l'on a vu tout àl'heure.

Lucien Israël

J’ouvre des revues de vulgarisation comme Science et Avenir ou LaRecherche et je lis que des astrophysiciens pensent que dans certains coins del’univers observable, le temps s’écoule dans l’autre sens, qu’est-ce que cela veutdire ? Cela a-t-il un rapport avec le fait que les équations sont symétriques, quelque soit le sens du temps ?

Jacques Vauthier

On ne sait même pas si les astrophysiciens savent ce qu’ils veulent dire !Deux remarques. La première concerne la différence entre le point de vuephilosophique et le point de vue du physicien. Le temps du philosophe, c’est letemps de l’être humain. C’est un temps ontologique, qui est constitutif de notreêtre. On le vit d’une certaine manière qui n’est pas celle de notre voisin. Cettenotion est relative. Il y a eu une remarque très intéressante dans ce que vousdisiez dans votre exposé sur cette notion intrinsèque du temps, qui estmaintenant mise en évidence du côté de la physique.

La deuxième remarque, puisque je suis mathématicien, c’est de rappelerqu’Einstein, lorsqu’on lui a dit que la relativité fonctionnait, et qu’on lui ademandé « et si cela n’avait pas marché, qu’est-ce que vous en auriez pensé ? », arépondu : « I would have been sorry for the Old One ». De fait, c’étaitextraordinaire de voir que cette construction qui était une constructionmathématique était ce que l’on appelle le temps. Il y a là une modélisationmathématique qui est spectaculaire et dont on peut se demander comment celase fait qu’elle est aussi pertinente. On voit que la science modélise une réalité

Page 54: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

mais n’épuise pas la réalité. Il y a donc immédiatement les limites du modèle.Cela rejoint la question que posait M. Laplane : « Y a-t-il un au-delà de cettethéorie ? ». Y aura-t-il une grande unification un jour ? Dans la représentation dutemps, je suis toujours mal à l’aise par rapport à ce terme de « temps ». Qu’est ceque cela veut dire ? Qu’est-ce que cela représente précisément ? Comment celarésonne-t-il chez chacun d’entre nous ? Nous avons eu un exposé sur le chaos, etnous avons vu que la résonance de ce mot n’est pas du tout ce que l’on pense.Rappelons que lorsqu’Einstein est venu à Paris et s’est retrouvé dans un grandamphithéâtre de la Sorbonne avec Bergson, cela a été un dialogue de sourds entreeux, sur cette notion de temps.

Jean Kovalevsky

Il y a tout un pan de la relativité générale que nous n’avons pas traité :c’est la relativité-cosmologie. Cette relativité-là, compte tenu des modèles que l’ona en cosmologie, n’est pas encore bien travaillée. Et il reste bien des choses àfaire. Lorsque l’espace-temps était beaucoup plus petit, le champ de gravité étaitextrêmement grand. Je ne suis pas sûr que l’on ait pu répondre à la question desconséquences relativistes sur l’évolution de l’Univers dans ces conditionsextrêmes. Peut-être Eric Bois pourra-t-il en dire un peu plus ?

Éric Bois

Je voulais donner à peu près la même réponse en ce qui concerne lacosmologie relativiste. Mais en introduisant cela par la distinction utile queM. Vauthier faisait tout à l'heure entre le temps mesuré et le temps perçu. On nepeut simplement extraire la nature du temps, et l'identifier comme tel, à partirdu temps mesuré de la physique, d'autant qu'il existe plusieurs axiomatiques dutemps en physique. Quant au temps perçu, j'apprécie cette expression de « tempsontologique ». En cosmologie théorique, au quotidien, l'on ne manipule pas deshorloges. Le temps cosmologique, même issu de la cosmologie relativiste, n'estpas un temps mesuré, même si on peut chercher une cohérence avec uneaxiomatique particulière. Et cela devient un temps conceptuel : ni un tempsperçu, ni un temps mesuré. Ce temps conceptuel doit cependant satisfaire lesexigences de la raison via toute l'armature et la consistance du matériau de laphysique théorique. Bien que conceptuel, cela n'est donc pas un temps tout à faitsouple vis-à-vis duquel l'on pourrait dire tout et son contraire. Cela étant, despostulats raisonnables, mais des postulats tout de même, sont introduits, commele principe de causalité de Weyl permettant de passer d'une notation locale de lacausalité en physique à sa notion globale en cosmologie.

Bernard d’Espagnat

Si j’ai bien compris, tant que l’on reste dans le schéma général de larelativité générale, il n’y a pas de temps, on ne peut définir le temps cosmique.On ne peut le définir que dans certains modèles, en particulier dans le modèle deFriedman-Lemaître, dans des modèles où l’on suppose une certaine isotropie del’espace. À ce moment-là, on peut simplifier les équations et définir un temps

Page 55: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

cosmique. Mais l’on ne le peut pas, dans le cadre le plus général. Autrement dit,si je comprends bien, si nous pouvons définir un temps cosmique, c’est en vertud’un phénomène contingent, celui que l’espace est pratiquement isotrope sur leslongues distances. C’est assez frappant que l’on soit dans cette situation-là. C’esttrès différent du schéma de Newton où il y avait aussi un temps absolu mais où letemps absolu était parachuté dès le départ à titre d’hypothèse fondamentale.Alors que là, si la matière était arrangée autrement, l’on ne pourrait définir detemps.

Hervé Zwirn

Je voulais revenir brièvement sur la question que vous avez posée : " est-cequ'aujourd’hui on est satisfait ? ". Nous ne sommes toujours pas satisfaits mais ilme semble qu'il y a une différence entre la situation du début du siècle et celled'aujourd'hui. Les causes d'insatisfaction ne sont plus les mêmes. Au début dusiècle, le résultat négatif de l'expérience de Michelson et Morley posait unproblème, c'était un résultat expérimental qui ne pouvait être compris par lascience de l'époque. La mécanique newtonienne prédisait que la vitesse de lalumière n'était pas constante, ce qui était contraire à l'expérience (sauf àimaginer des explications ad hoc artificielles). Aujourd'hui, on ne peut pas direqu'il existe une expérience du même style qui mettrait en défaut la mécaniquequantique ou la relativité générale. Il n'existe pas de résultat expérimental donton dise "il est contraire aux prédictions des théories en vigueur". En revanche, ona une insatisfaction de nature beaucoup plus théorique dans la mesure où il estnécessaire, parce que c'est la direction dans laquelle progresse la physique,d'unifier les choses. Or nous disposons d'un côté d'une théorie quantique deschamps qui décrit trois types d'interactions (forte, faible et électromagnétique)qui sont maintenant partiellement unifiées (même si de gros efforts restentencore à faire), et d'un autre côté de la relativité générale qui décrit unequatrième interaction (l'interaction gravitationnelle). Ceci n'est pas satisfaisantcar l'interaction gravitationnelle doit, elle aussi, être quantifiée, ce qui n'est pasle cas dans le cadre de la relativité générale. Il est donc nécessaire de construireune théorie quantique globale qui unifie les quatre interactions. Cette théorie esten cours de construction mais même s'il y a eu des progrès, les physiciens sontloin d'avoir tout compris dans ce domaine. Ils seraient satisfaits s'ils pouvaientdire : " ça y est, on a une théorie unifiée générale, on sait mathématiquementcomment elle fonctionne et en plus, on est capable d'en vérifier les conséquencesexpérimentales". Or, non seulement sur le plan formel on est loin d'avoir fini deconstruire cette théorie (même si des parties importantes existent déjà) mais deplus, les conséquences expérimentales sont, pour la plupart, totalement hors deportée de nos possibilités de test. Ceci explique peut-être qu'il n'existe pasd'expérience, aujourd'hui, qui contredise les théories en cours puisque lesconséquences expérimentales des nouvelles théories se situent à plusieurs ordresde grandeur au-dessus de nos possibilités expérimentales.

Si maintenant on veut réfléchir sur le concept de temps, il convient de seplacer dans le cadre des ces théories (appelées "théories des supercordes") mêmesi elles ne sont pas encore achevées. Elles seules font intervenir l'aspect

Page 56: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

quantique de l'espace-temps et elles modifient totalement l'idée qu'on peut sefaire du concept de temps. Les particules ne sont plus considérées commeponctuelles mais comme des cordes (entités à une dimension) qui respectent unesymétrie appelée "super symétrie". Dans ces théories, le cadre dans lequel on seplace possède 10 dimensions. Pour retrouver l'espace-temps à 4 dimensions quiest le nôtre, il se produit ce que l'on appelle une compactification, c'est-à-dire quecertaines dimensions sont repliées sur elles-mêmes sur des distances qui sonttellement courtes qu'elles sont inobservables. Le fait que ces dimensions sontinobservables aboutit au fait que nous semblons vivre dans un espace à 4dimensions (3 d'espace et 1 de temps). Mais il semble que l'aspect quantiquerend flou le concept de temps qui devient une sorte de notion approximative quin'émerge au niveau classique que sous des conditions initiales très particulières.Mais ces considérations sont, pour le moment, hautement spéculatives.Cependant je pense que si l'on veut faire une analyse philosophique de la notionde temps, c'est dans ces modèles qu'il convient de se placer malgré la difficultéque cela représente.

Bernard d’Espagnat

Dans le tour d’horizon que nous venons de faire nous avons dû, bienentendu, laisser de nombreuses questions de côté. En particulier toutes cellesconcernant l’irréversibilité du temps. Quelles sont les sources de l’irréversibilitéque l’on constate ?. Curieusement, plusieurs sont concevables et plusieurs, même,paraissent être à l’œuvre simultanément. Nombre de livres traitent de cesquestions mais il est rare de trouver dans ceux-ci de vraies tentatives decompréhension de cette étrange confluence. Il y a là tout un domaine que cen’était pas l’objet de cette réunion d’aborder mais dont, pour mémoire, je tiens àrappeler l’existence.

Jean Kovalevsky

Je souhaiterais faire un commentaire sur ce problème de l’irréversibilité dutemps. Il est vrai qu’il y a toute une gamme de propriétés du temps que l’on n’apas abordée, parmi lesquelles le problème des effets dissipatifs. Or, les effetsdissipatifs existent partout, même en mécanique céleste et c’est par ce biais que,peut-être, on pourrait aborder le problème de l’irréversibilité, et cela serait ungrand débat. A partir du moment où l’on prend en compte les phénomènesdissipatifs, les équations ne sont plus symétriques et les solutions ne sont pasinvariantes par un changement de digne de la variable temps.

Page 57: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

La place de l’homme dans l’univers

par Trinh Xuan Thuan*

Je voudrais présenter ce sujet en deux volets : le premier s’intitulerait « lefantôme de Copernic », montrant comment l’homme a rapetissé de plus en plus àla fois dans l’espace et dans le temps depuis Copernic ; comment nous avonsassisté à un désenchantement du monde, qui fait écho au fameux cri d’angoissede Blaise Pascal : « Le silence des espaces infinis m’effraie ». Puis, dans unedeuxième partie, je développerai le thème que nous avons peut-être, même sinous sommes très petits dans le temps et dans l’espace, notre rôle à jouer.L’observateur de l’univers va s’émerveiller devant l’harmonie, la beauté de cetunivers qui, peut-être, possède un sens. C’est le réenchantement du monde.

La cosmologie moderne a radicalement changé la vision de notre placedans l’univers. Le premier choc est arrivé en 1543, quand Copernic a délogé laterre de sa place centrale et mis le soleil au centre de l’univers -le système solaireétait l’univers à ce moment-là. Notre terre s’est retrouvée reléguée au rang d’unesimple planète tournant autour du soleil. Déjà, pour aller à la limite du systèmesolaire, il faut à la lumière cinq heures (nous parlerons en heures-lumière et enannées-lumière, ce sont les distances parcourues par la lumière en une heure ouen une année. C’est une façon commode de noter des distances dans l’univers).

Au XIXe siècle, on a découvert que le soleil lui-même n’était pas au centrede notre voie lactée : il s’est perdu à son tour parmi les cinq milliards d’étoiles quiconstituent la voie lactée. Devenu une simple étoile de banlieue située à 30 000années-lumière du centre galactique, il fait le tour de la voie lactée tous les 250millions d’années, nous entraîant avec lui dans l’espace à 250 Kms/seconde.

L’univers se réduisait-il à la voie lactée ? C’était la grande question audébut du XXe siècle. Y avait-il d’autres mondes, d’autres univers-îles, commeKant les appelait, qui étaient au-dehors de notre voie lactée ? Hubble apporta laréponse en mesurant la distance de la galaxie la plus proche de nous et semblableà la voie lactée : Andromède. Il démontra que celle-ci est située à deux millionsd’années-lumière ; c’est-à-dire que la lumière qui parvient maintenant à nostélescopes est partie de là-bas avant que le premier homme apparaisse sur terre.Cette distance est à comparer avec le diamètre de notre voie lactée : seulement90 000 années-lumière. Les portes de l’univers extragalactique se sont ouvertestoutes grandes et maintenant, nous savons que notre voie lactée n’est qu’unegalaxie parmi environ cent milliards d’autres galaxies qui peuplent l’universobservable.

En regardant de plus en plus loin dans l’espace, avec des télescopes de plusen plus puissants, on découvre qu’il y a une organisation des galaxies en

* Astrophysics Laboratory, Department of astronomy. 122 Oak Forrest Circle. Charlotteville. Virginia 22901.USA

Page 58: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

structures. Je vais prendre une image : si les galaxies sont les « maisons » del’univers, une galaxie comme la nôtre se groupe en « groupe local » avec la galaxied’Andromède et une vingtaine de galaxies naines. Le groupe-local équivaut à unpetit village de l’univers. Les galaxies peuvent s’assembler en plus grand nombredans des amas, des ensembles de milliers de galaxies qui sont comme des villesde province de l’univers ; et puis ces amas peuvent même s’assembler en super-amas comme des grandes métropoles de l’univers. Les galaxies ne sont pasuniformément distribuées dans l’espace : il y a de grands vides en forme de bullede savon, avec des diamètres de cent millions d’années-lumière, et de grandsmurs de galaxies qui s’étendent aussi sur des centaines de millions d’années-lumière. Comprendre comment l’univers est passé de son état homogène etuniforme du début à cette magnifique tapisserie cosmique tissée par les galaxiesest l’un des grands problèmes de l’astrophysique contemporaine.

L’homme s’est donc rapetissé de plus en plus dans l’espace. Je rappellequ’une minute-lumière équivaut à 18 millions de Km ; une heure-lumière à unmilliard de Km ; une année-lumière à 10 mille milliards de Km. La distancesoleil-terre, c’est 8 mns-lumière ; le système solaire jusqu’à Pluton, c’est 5,2heures de lumière ; la distance du soleil au centre galactique est de 30 000années-lumière ; la voie lactée est un disque de 90 000 années-lumière ; ladistance de la voie lactée à Andromède est de 2 millions d’années-lumière. Puisnous arrivons à de plus grandes dimensions ; des groupes de galaxies avec desdiamètres de 6 millions d’années-lumière ; des amas de galaxies de diamètre de30 millions d’années-lumière ; avec les télescopes les plus puissants de la terre,on peut regarder très loin dans l’espace, jusqu’à une distance de 12 milliardsd’années-lumière. Et l’univers observable, c’est-à-dire la partie de l’univers dontla lumière a eu le temps de nous parvenir, a un rayon de 15 milliards d’années-lumière.

Puisque l’espace et le temps sont connectés, car, en ce qui concernel’univers observable, la distance est un temps multiplié par la vitesse de lalumière, l’homme en se rapetissant dans l’espace, s’est aussi rapetissé dans letemps. Pour illustrer cela plus clairement, je vais comprimer toute l’histoire des15 milliards d’années de l’évolution cosmique en une année et je vais vousprésenter un calendrier cosmique. Le Big-Bang a lieu le 1er janvier, la formationde la voie lactée quelques mois plus tard, le 1er avril ; et puis la formation dusystème solaire encore plus tard, le 9 septembre seulement. Et puis survient lalongue évolution de la vie sur terre ; la première cellule vivante apparaît le 25septembre ; les plus vieux fossiles — les bactéries et les algues bleues — le 9octobre ; puis l’invention du sexe par les micro-organismes, le 1er novembre. Le 19décembre apparaissent les premiers poissons. Les premiers insectes font leurapparition le 21 décembre ; les premiers arbres arrivent seulement le 23décembre ; les premiers oiseaux, le 27 décembre ; puis les dinosaures sortent descène le 28 décembre, après quatre jours d’existence.

Toute l’évolution de l’homme se passe le 31 décembre. Les premiershommes rentrent en scène à 22h30, et l’homme civilisé ne survient qu’à ladernière minute de l’année ! Les peintures de Lascaux sont faites à 23h 59

Page 59: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

minutes ; la civilisation égyptienne, le développement de l’astronomie seproduisent pendant les 10 dernières secondes de l’année : 23h59 minutes 59 s ;Bouddha et le Christ n’arrivent que dans les 5 dernières secondes de l’année ; laRenaissance et la naissance de la science occidentale, la conquête de l’espace, larecherche d’une existence extra-terrestre et le péril écologique ne surviennentqu’à la dernière seconde de l’année. L’homme civilisé occupe vraiment un tempsinfime dans l’évolution cosmique.

La cosmologie moderne a rapetissé l’homme à la fois dans le temps et dansl’espace. Quelle attitude adopter alors ? Faut-il désespérer ? Faut-il s’angoisserdevant ces espaces infinis comme Blaise Pascal, ou se dire que « l’homme aémergé par hasard dans un univers qui lui est complètement indifférent »,comme Jacques Monod ? Ou avons-nous tout de même un rôle à jouer -même si,depuis Copernic, nous n’occupons plus le centre du monde ? Pour tenterd’apporter un élément de réponse à cette question, je vais maintenant aborder leprincipe anthropique, du grec anthropos, qui veut dire homme. Ce principe ditque l’univers semble avoir été réglé de façon extrêmement précise pour que la vieet l’intelligence, telles que nous les connaissons, apparaissent. En fin de compte,l’existence de ce réglage redonne du sens à notre propre existence.

Comment montrer ce réglage si précis ? Bien sûr, l’astrophysicien ne peutpas recréer le Big-Bang en laboratoire, la température à l’origine étant de l’ordrede 10 puissance 32 degrés. Il faudrait des accélérateurs de particules quis’étendraient jusqu’à la prochaine étoile pour reproduire une aussi hautetempérature. Mais, heureusement, l’astrophysique dispose de puissantsordinateurs avec lesquels il peut créer des univers-jouets. Quels ingrédients faut-il mettre dans l’ordinateur pour concocter un univers-jouet ? Il faut d’abord yintroduire les quatre forces physiques qui contrôlent tous les phénomènes del’univers. D’abord la force gravitationnelle qui est la colle de l’univers : c’est ellequi tient ensemble les planètes, les étoiles, les galaxies, qui fait que nous neflottons pas dans l’air. Vient ensuite la force électromagnétique qui est la colledes atomes et qui donne leur forme aux choses. Et puis viennent les deux forcesnucléaires : la force forte qui tient ensemble les protons et les neutrons pourformer les noyaux d’atomes et la force faible responsable de la radioactivité. Enplus des quatre forces, il faut introduire dans l’ordinateur une quinzaine denombres qu’on appelle les constantes physiques. Par exemple, il y a la vitesse dela lumière (300 000 Km/seconde) ; la masse du proton ou la masse de l’électron.Nous mesurons ces nombres avec une grande précision dans nos laboratoires,mais nous n’avons aucune théorie pour expliquer pourquoi ils ont telle valeur etnon pas telle autre. En plus des constantes physiques, il faut préciser lesconditions initiales de l’univers : sa densité d’énergie initiale, son tauxd’expansion initial, etc. On fait ensuite évoluer l’univers-jouet grâce àl’ordinateur. Après une évolution de 15 milliards d’années, on lui pose la questionà 1 000 francs : est-ce qu’il y a de la vie et de la conscience dans cet univers-jouet ? Et la réponse est vraiment très étonnante : si on varie un tant soit peu lesconstantes physiques et conditions initiales, on aboutit à un universcomplètement infertile et dénué de conscience, et donc d’observateur pourapprécier sa beauté et son harmonie.

Page 60: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

Pour comprendre cela, il faut savoir que la vie telle que nous laconnaissons est à base de carbone. Or, ce carbone n’a pas été produit lors du BigBang. Le Big Bang n’avait réussi à fabriquer que de l’hydrogène et de l’hélium.Le carbone tout comme les autres éléments lourds a été formé plus tard dans lesétoiles. Nous sommes tous des « poussières d’étoiles », et l’existence de notre viedépend du fait que les étoiles existent et peuvent faire leur alchimie nucléaire,puis éjectent les produits de cette alchimie nucléaire dans l’espace interstellairepour former, éventuellement, des planètes sur lesquelles la vie pourrait émerger.Tout cela demande du temps, et c’est pourquoi l’univers doit être aussi âgé. Ilfaut quelques milliards d’années pour que toute cette évolution cosmiques’accomplisse.

Dans environ plus de cinq milliards d’années, le soleil s’effondrera en cequ’on appelle une naine blanche (un cadavre stellaire compact de la taille de laterre) en éjectant son enveloppe qui aura été enrichie par son alchimie créatriceen éléments lourds : carbone, azote, oxygène et autres éléments nécessaires à lavie et à l’émergence de la conscience. C’est une mort très douce et ce n’est pas unefaçon très efficace pour ensemencer l’espace interstellaire d’éléments lourds. Lafaçon la plus efficace est de faire éclater l’étoile en une supernova. L’explosiondégage autant d’énergie pendant cette phase que l’énergie de 100 millions desoleils.

Les étoiles jouent donc un rôle essentiel pour l’émergence de la vie et de laconscience ; comment fabriquent-elles le carbone à partir de l’hélium ? Un noyaude carbone résulte de la combinaison de trois noyaux d’hélium. Une rencontresimultanée de trois noyaux d’hélium est très difficile à arranger, il est beaucoupplus facile de faire se rencontrer deux noyaux d’hélium pour former un noyauintermédiaire, un noyau de beryllium, et ensuite de faire se rencontrer ce noyaude beryllium avec un troisième noyau d’hélium pour former un noyau de carbone.Mais il y a un hic : le beryllium a un temps de vie très court. Dès qu’il se forme, ilse désintègre tout de suite : en fait le temps de vie de ce noyau de beryllium, estde 10 puissance –15 secondes (le chiffre 1 arrive après 15 zéros). Donc, a priori, ilne dure pas assez longtemps pour se combiner avec un noyau d’hélium etfabriquer un noyau de carbone. À moins qu’il existe ce qu’on appelle unerésonance d’énergie, c’est-à-dire que la somme des énergies des noyaux deberyllium et d’hélium soit très proche d’un niveau d’énergie du carbone. Or on neconnaissait, à cette époque, aucun niveau d’énergie du carbone ayant cettevaleur. L’astrophysicien britannique Fred Hoyle a alors tenu un raisonnement decaractère anthropique : « Nous existons et nous savons que nous sommes faits decarbone. Donc, il faut que la carbone existe et il faut nécessairement que ceniveau d’énergie existe ». Il a demandé à ses collègues de mesurer ce niveaud’énergie et ils l’ont trouvé exactement où il a été prévu. La somme de l’énergiede l’hélium et du beryllium est de l’ordre de 7,370 millions d’électronvolts (le Mevest une unité d’énergie) et l’énergie du carbone est légèrement supérieure : 7,656Mev et c’est ce qui permet à cette réaction résonante de se produire bien que leberyllium disparaisse très vite. La valeur des niveaux d’énergie d’un atomedépend de nombreuses constantes physiques, telles la masse du proton, la masse

Page 61: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

de l’électron, l’intensité de la force électromagnétique, etc. Or ces constantes onteu justement les valeurs nécessaires pour que le carbone, et donc la vie telle quenous la connaissons, apparaisse. Première coïncidence.

Mais il y a une deuxième coïncidence, tout aussi extraordinaire. Elleconcerne la fabrication de l’oxygène qui résulte de la combinaison d’un noyau decarbone avec un noyau d’hélium. En fabriquant l’oxygène, il faut faire attentionde ne pas détruire complètement le carbone car il faut le conserver pourengendrer la vie plus tard. Ici intervient la seconde coïncidence : le niveaud’énergie de l’oxygène est légèrement inférieur à la somme de l’énergie ducarbone et de l’hélium. Et cela empêche justement la transformation de tout lecarbone en oxygène. Ainsi la nature a donc réglé de façon extrêmement préciseles constantes physiques, de manière à produire en abondance du carbone et del’oxygène qui sont tous deux nécessaires à la vie.

Il y a d’autres coïncidences tout aussi extraordinaires. Je vais vous décrirecelle qui existe entre la charge électrique du proton et celle de l’électron.L’électron a une charge négative, le proton a une charge positive. On a mesuréavec une grande précision ces charges. Bien que le proton soit près de 2 000 foisplus massif que l’électron, leurs charges sont égales, et on ne sait pas pourquoi. Sila charge électrique du proton et celle de l’électron différaient seulement d’uncent millième de millionième, les pierres, les tables, les personnes exploseraient àcause du déséquilibre électrique qui existerait entre les charges. À l’échelle desgalaxies ou des étoiles, cette contrainte d’égalité des charges devient encore plusimportante, car il y a beaucoup plus d’atomes. Si la charge du proton et la chargede l’électron différaient seulement d’un milliardième de milliardième, toutexploserait : la terre, le soleil, les étoiles. De nouveau, le réglage doit êtreextrêmement précis.

Une autre coïncidence : celle qui concerne les masses du neutron et duproton. Il se trouve que le neutron a un millième de plus de masse que le proton.Et cette différence est très importante pour la vie telle que nous la connaissons.Le temps de vie du neutron est très petit : de l’ordre de 15 minutes seulement. Enfait il se désintègre en proton. Tandis que le temps de vie du proton estpratiquement éternel. Les expériences montrent qu’il doit vivre au moins 1032

années. Il en est ainsi parce que la masse du neutron est plus grande que lamasse du proton et donc le neutron peut se désintégrer en proton. À cause de salongue vie, le proton peut servir de carburant nucléaire aux étoiles. Mais sil’inverse était vrai, si la masse du proton était plus grande que la masse duneutron, ce serait le proton qui se désintègrerait en neutron, et ce serait leneutron qui servirait de carburant. Or, la combustion du neutron est très rapide,et les étoiles dureraient seulement un siècle si elles étaient composées en totalitéde neutrons. De nouveau, les masses du proton et du neutron ont juste la valeurnécessaire pour que la vie et la conscience apparaissent.

Je peux encore vous décrire d’autres univers-jouets. Prenons un univers-jouet où la force nucléaire forte est divisée par deux. Les deutérons, qui résultentde la combinaison d’un proton et d’un neutron, ne se forment plus parce que la

Page 62: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

force forte ne sera pas assez forte pour retenir le neutron et le proton ensemble. Iln’y aura pas non plus d’hélium puisque celui-ci résulte de la combinaison de deuxdeutérons. Sans hélium, pas de combustion nucléaire, ni d’étoiles ni de vie. Et sinous augmentons la force forte par un facteur de 2, les protons se combinent 2par 2 pour former ce qu’on appelle un diproton. Le diproton est un carburant quibrûle très vite : les réactions s’emballent et les étoiles explosent. La vie n’a pas letemps d’apparaître. De nouveau, nous constatons que les constantes physiques,l’intensité des forces physiques, sont très soigneusement réglées, dans notreunivers, pour l’apparition de la vie.

Encore un autre exemple, qui va permettre de répondre à la question :pourquoi vivons-nous dans un espace à trois dimensions ?

Supposons que nous vivions dans un univers à une dimension, c’est-à-diresur une ligne droite, ou dans un univers à deux dimensions c’est-à-dire un plan.Dans un univers à une ou deux dimensions, notre cerveau, qui est composé demilliards de neurones, sera soit une ligne droite, soit totalement aplati. Tous lessignaux électriques qui parcourent les neurones s’entrecroisent parce que toutsera sur la même ligne droite ou sur le même plan, donc la pensée ne sera paspossible. Il faut un univers à trois dimensions ou plus pour fabriquer un cerveauavec des neurones, où les signaux ne se mêleront pas. Considérons maintenanttous les univers avec plus de trois dimensions : quatre, cinq, etc. On s’aperçoitque, dans ces univers, les orbites des planètes ne seront plus stables autour desétoiles. Si la terre était dans un tel univers, soit elle tomberait vers le soleil, cequi détruirait toute vie, soit elle s’éloignerait du soleil et deviendrait un vagabonddans l’espace glacé du milieu interstellaire où toute vie est impossible. L’universà trois dimensions où nous vivons, est le seul qui permette l’émergence de la vieet de l’intelligence.

Je vais vous décrire maintenant le réglage de la densité de matière del’univers. La matière exerce une force gravitationnelle attractive qui ralentitl’expansion de l’univers. Si la densité était trop grande, les galaxies, au lieu des’éloigner les unes des autres, se rapprocheraient et le Big Bang serait devenu unBig Crunch : tout s’effondrerait au bout d’une année, de dix années, d’un siècle oupeut-être d’un million d’années. Et à nouveau, c’est un temps trop court pour quela vie et la conscience, la complexité, émergent.

Diminuons alors la densité de l’univers : maintenant la gravité esttellement faible que les galaxies et les étoiles ne se formeraient pas. En fait, ondoit régler cette densité de l’univers à son commencement avec une précision del’ordre de 10-12. Pour vous donner une image, la précision du taux d’expansioninitial de l’univers doit être comparable à la précision qu’il faut à un archer pourplanter une flèche dans une cible d’un centimètre carré de côté, qui serait placéede l’autre côté de l’univers, à 15 milliards d’années-lumière. Une précisionextrême.

Dans mon dernier exemple, je vais jouer avec la force de gravité. La forcede gravité est très faible par rapport à la force électromagnétique, le rapport des

Page 63: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

deux forces étant de l’ordre de 10-40 : c’est pourquoi vous pouvez soulever un clouavec un aimant, bien que toute la masse de la terre attire le clou. Mais malgré safaiblesse, la gravité règne dans l’univers parce que la matière s’additionnetoujours, tandis que, à cause de l’égalité de la charge de l’électron et du proton,les charges électriques et la force électromagnétique s’annulent.

Alors, si on construit un univers où la force de gravité est multipliée par10, quelles en sont les conséquences ? Les étoiles, bien sûr, deviendront beaucoupplus petites parce que les forces d’attraction dues à la gravité seront beaucoupplus fortes. Une étoile dans cet univers pèsera 10-15 fois la masse de notre soleil.En fait, elle aura une masse de 1012 tonnes, celle d’un astéroïde. Le diamètre del’étoile sera de l’ordre de 2 Km au lieu de 200 000 Km, sa durée de vie sera d’uneannée au lieu des 10 milliards d’années de notre soleil. On aura ainsi un universoù tout sera accéléré dans le temps, où tout sera beaucoup plus petit. La tailledes galaxies deviendra aussi beaucoup plus petite (un dixième de milliardième defois moins grande), les planètes seront beaucoup plus proches de leur soleil (troiscents fois plus proches). Au lieu de 365 jours pour faire le tour de leur étoile, illeur faudra 20 jours seulement. Et la planète tournera sur elle-même en uneseconde. Sur terre, la plus grosse montagne aura 30 cm. Les organismes vivantsde cet univers seront beaucoup plus petits et moins massifs. Ils auront la massed’un millième de gramme. Dans ce genre d’univers, la complexité qui engendrel’intelligence et la conscience aura bien des difficultés à émerger.

Ainsi notre existence dépend d’un réglage d’une précision inimaginable desconstantes physiques et des conditions initiales de l’univers.Quelle attitude adopter devant cette constatation ?

Nous nous trouvons face à deux alternatives : nous pouvons dire que ceréglage est complètement dû au hasard. Alors pour expliquer son existence, ilfaut postuler une infinité d’univers parallèles. La notion d’univers parallèles asurgi à plusieurs occasions en physique. D’abord en mécanique quantique. Selonle physicien américain Hugh Everett, l’univers se divise en deux chaque fois qu’ily a alternative, choix ou décision.

Par exemple, il y aura un univers où vous êtes allé au cinéma et un universoù vous serez resté chez vous ; un univers où le mur de Berlin et le communismerusse seraient tombés ; un autre univers où ils auraient continué à exister. Lephysicien russe Andreï Linde a proposé un modèle de Big Bang où notre universne serait qu’une bulle parmi une infinité d’autres bulles-univers dans un meta-univers. On peut aussi imaginer que notre univers est cyclique, et que notreprésent univers n’est qu’un cycle parmi une infinité de cycles sans début ni fin.

Ces univers parallèles sont complètement déconnectés les uns des autres,et inaccessibles à l’observation. Il n’y a donc aucune manière de vérifier leurexistence. Dans cette hypothèse des univers parallèles, on peut invoquer lehasard, il y aura toutes les combinaisons possibles de constantes physiques et deconditions initiales, et tous ces univers seront infertiles et dépourvus de vie et deconscience. Sauf le nôtre, où, par hasard, la combinaison sera gagnante et nous

Page 64: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

sommes le « gros lot » de cette loterie. Le choix du hasard est donc permis par lascience. Pour ma part, je trouve ce choix assez désespérant, car il amène ledésespoir comme en témoignent les propos de Monod ou de Steven Weinberg :« Plus l’univers est compréhensible, plus il est dépourvu de sens ».

D’autre part, postuler une infinité d’univers complètement inaccessibles àl’observation va à l’encontre du postulat de simplicité d’Occam (tout ce qui n’estpas nécessaire est inutile) et fait violence à l’harmonie, la beauté et l’unité deslois que nous constatons dans la nature et à la sensibilité d’observateur del’univers.

L’autre attitude que nous pouvons adopter, c’est de dire qu’il y a un seulunivers. Mais s’il n’y a qu’un univers, et qu’il existe un réglage si précis, il fautpostuler l’existence d’un Principe Créateur qui est à l’origine de ce réglage. Lascience ne peut pas choisir entre ces deux hypothèses. C’est à chacun de faire sonpari pascalien.

Pour ma part, je parie non pas sur le hasard, mais sur la nécessité. Nonseulement j’ai du mal à croire que la complexité et la beauté du monde quej’observe au télescope sont dus au pur hasard, mais ce pari permet le sens etl’espérance.

Page 65: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

La place de l’homme dans l’univers

par Trinh Xuan Thuan*

Je voudrais présenter ce sujet en deux volets : le premier s’intitulerait « lefantôme de Copernic », montrant comment l’homme a rapetissé de plus en plus àla fois dans l’espace et dans le temps depuis Copernic ; comment nous avonsassisté à un désenchantement du monde, qui fait écho au fameux cri d’angoissede Blaise Pascal : « Le silence des espaces infinis m’effraie ». Puis, dans unedeuxième partie, je développerai le thème que nous avons peut-être, même sinous sommes très petits dans le temps et dans l’espace, notre rôle à jouer.L’observateur de l’univers va s’émerveiller devant l’harmonie, la beauté de cetunivers qui, peut-être, possède un sens. C’est le réenchantement du monde.

La cosmologie moderne a radicalement changé la vision de notre placedans l’univers. Le premier choc est arrivé en 1543, quand Copernic a délogé laterre de sa place centrale et mis le soleil au centre de l’univers -le système solaireétait l’univers à ce moment-là. Notre terre s’est retrouvée reléguée au rang d’unesimple planète tournant autour du soleil. Déjà, pour aller à la limite du systèmesolaire, il faut à la lumière cinq heures (nous parlerons en heures-lumière et enannées-lumière, ce sont les distances parcourues par la lumière en une heure ouen une année. C’est une façon commode de noter des distances dans l’univers).

Au XIXe siècle, on a découvert que le soleil lui-même n’était pas au centrede notre voie lactée : il s’est perdu à son tour parmi les cinq milliards d’étoiles quiconstituent la voie lactée. Devenu une simple étoile de banlieue située à 30 000années-lumière du centre galactique, il fait le tour de la voie lactée tous les 250millions d’années, nous entraîant avec lui dans l’espace à 250 Kms/seconde.

L’univers se réduisait-il à la voie lactée ? C’était la grande question audébut du XXe siècle. Y avait-il d’autres mondes, d’autres univers-îles, commeKant les appelait, qui étaient au-dehors de notre voie lactée ? Hubble apporta laréponse en mesurant la distance de la galaxie la plus proche de nous et semblableà la voie lactée : Andromède. Il démontra que celle-ci est située à deux millionsd’années-lumière ; c’est-à-dire que la lumière qui parvient maintenant à nostélescopes est partie de là-bas avant que le premier homme apparaisse sur terre.Cette distance est à comparer avec le diamètre de notre voie lactée : seulement90 000 années-lumière. Les portes de l’univers extragalactique se sont ouvertestoutes grandes et maintenant, nous savons que notre voie lactée n’est qu’unegalaxie parmi environ cent milliards d’autres galaxies qui peuplent l’universobservable.

En regardant de plus en plus loin dans l’espace, avec des télescopes de plusen plus puissants, on découvre qu’il y a une organisation des galaxies en

* Astrophysics Laboratory, Department of astronomy. 122 Oak Forrest Circle. Charlotteville. Virginia 22901.USA

Page 66: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

structures. Je vais prendre une image : si les galaxies sont les « maisons » del’univers, une galaxie comme la nôtre se groupe en « groupe local » avec la galaxied’Andromède et une vingtaine de galaxies naines. Le groupe-local équivaut à unpetit village de l’univers. Les galaxies peuvent s’assembler en plus grand nombredans des amas, des ensembles de milliers de galaxies qui sont comme des villesde province de l’univers ; et puis ces amas peuvent même s’assembler en super-amas comme des grandes métropoles de l’univers. Les galaxies ne sont pasuniformément distribuées dans l’espace : il y a de grands vides en forme de bullede savon, avec des diamètres de cent millions d’années-lumière, et de grandsmurs de galaxies qui s’étendent aussi sur des centaines de millions d’années-lumière. Comprendre comment l’univers est passé de son état homogène etuniforme du début à cette magnifique tapisserie cosmique tissée par les galaxiesest l’un des grands problèmes de l’astrophysique contemporaine.

L’homme s’est donc rapetissé de plus en plus dans l’espace. Je rappellequ’une minute-lumière équivaut à 18 millions de Km ; une heure-lumière à unmilliard de Km ; une année-lumière à 10 mille milliards de Km. La distancesoleil-terre, c’est 8 mns-lumière ; le système solaire jusqu’à Pluton, c’est 5,2heures de lumière ; la distance du soleil au centre galactique est de 30 000années-lumière ; la voie lactée est un disque de 90 000 années-lumière ; ladistance de la voie lactée à Andromède est de 2 millions d’années-lumière. Puisnous arrivons à de plus grandes dimensions ; des groupes de galaxies avec desdiamètres de 6 millions d’années-lumière ; des amas de galaxies de diamètre de30 millions d’années-lumière ; avec les télescopes les plus puissants de la terre,on peut regarder très loin dans l’espace, jusqu’à une distance de 12 milliardsd’années-lumière. Et l’univers observable, c’est-à-dire la partie de l’univers dontla lumière a eu le temps de nous parvenir, a un rayon de 15 milliards d’années-lumière.

Puisque l’espace et le temps sont connectés, car, en ce qui concernel’univers observable, la distance est un temps multiplié par la vitesse de lalumière, l’homme en se rapetissant dans l’espace, s’est aussi rapetissé dans letemps. Pour illustrer cela plus clairement, je vais comprimer toute l’histoire des15 milliards d’années de l’évolution cosmique en une année et je vais vousprésenter un calendrier cosmique. Le Big-Bang a lieu le 1er janvier, la formationde la voie lactée quelques mois plus tard, le 1er avril ; et puis la formation dusystème solaire encore plus tard, le 9 septembre seulement. Et puis survient lalongue évolution de la vie sur terre ; la première cellule vivante apparaît le 25septembre ; les plus vieux fossiles — les bactéries et les algues bleues — le 9octobre ; puis l’invention du sexe par les micro-organismes, le 1er novembre. Le 19décembre apparaissent les premiers poissons. Les premiers insectes font leurapparition le 21 décembre ; les premiers arbres arrivent seulement le 23décembre ; les premiers oiseaux, le 27 décembre ; puis les dinosaures sortent descène le 28 décembre, après quatre jours d’existence.

Toute l’évolution de l’homme se passe le 31 décembre. Les premiershommes rentrent en scène à 22h30, et l’homme civilisé ne survient qu’à ladernière minute de l’année ! Les peintures de Lascaux sont faites à 23h 59

Page 67: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

minutes ; la civilisation égyptienne, le développement de l’astronomie seproduisent pendant les 10 dernières secondes de l’année : 23h59 minutes 59 s ;Bouddha et le Christ n’arrivent que dans les 5 dernières secondes de l’année ; laRenaissance et la naissance de la science occidentale, la conquête de l’espace, larecherche d’une existence extra-terrestre et le péril écologique ne surviennentqu’à la dernière seconde de l’année. L’homme civilisé occupe vraiment un tempsinfime dans l’évolution cosmique.

La cosmologie moderne a rapetissé l’homme à la fois dans le temps et dansl’espace. Quelle attitude adopter alors ? Faut-il désespérer ? Faut-il s’angoisserdevant ces espaces infinis comme Blaise Pascal, ou se dire que « l’homme aémergé par hasard dans un univers qui lui est complètement indifférent »,comme Jacques Monod ? Ou avons-nous tout de même un rôle à jouer -même si,depuis Copernic, nous n’occupons plus le centre du monde ? Pour tenterd’apporter un élément de réponse à cette question, je vais maintenant aborder leprincipe anthropique, du grec anthropos, qui veut dire homme. Ce principe ditque l’univers semble avoir été réglé de façon extrêmement précise pour que la vieet l’intelligence, telles que nous les connaissons, apparaissent. En fin de compte,l’existence de ce réglage redonne du sens à notre propre existence.

Comment montrer ce réglage si précis ? Bien sûr, l’astrophysicien ne peutpas recréer le Big-Bang en laboratoire, la température à l’origine étant de l’ordrede 10 puissance 32 degrés. Il faudrait des accélérateurs de particules quis’étendraient jusqu’à la prochaine étoile pour reproduire une aussi hautetempérature. Mais, heureusement, l’astrophysique dispose de puissantsordinateurs avec lesquels il peut créer des univers-jouets. Quels ingrédients faut-il mettre dans l’ordinateur pour concocter un univers-jouet ? Il faut d’abord yintroduire les quatre forces physiques qui contrôlent tous les phénomènes del’univers. D’abord la force gravitationnelle qui est la colle de l’univers : c’est ellequi tient ensemble les planètes, les étoiles, les galaxies, qui fait que nous neflottons pas dans l’air. Vient ensuite la force électromagnétique qui est la colledes atomes et qui donne leur forme aux choses. Et puis viennent les deux forcesnucléaires : la force forte qui tient ensemble les protons et les neutrons pourformer les noyaux d’atomes et la force faible responsable de la radioactivité. Enplus des quatre forces, il faut introduire dans l’ordinateur une quinzaine denombres qu’on appelle les constantes physiques. Par exemple, il y a la vitesse dela lumière (300 000 Km/seconde) ; la masse du proton ou la masse de l’électron.Nous mesurons ces nombres avec une grande précision dans nos laboratoires,mais nous n’avons aucune théorie pour expliquer pourquoi ils ont telle valeur etnon pas telle autre. En plus des constantes physiques, il faut préciser lesconditions initiales de l’univers : sa densité d’énergie initiale, son tauxd’expansion initial, etc. On fait ensuite évoluer l’univers-jouet grâce àl’ordinateur. Après une évolution de 15 milliards d’années, on lui pose la questionà 1 000 francs : est-ce qu’il y a de la vie et de la conscience dans cet univers-jouet ? Et la réponse est vraiment très étonnante : si on varie un tant soit peu lesconstantes physiques et conditions initiales, on aboutit à un universcomplètement infertile et dénué de conscience, et donc d’observateur pourapprécier sa beauté et son harmonie.

Page 68: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

Pour comprendre cela, il faut savoir que la vie telle que nous laconnaissons est à base de carbone. Or, ce carbone n’a pas été produit lors du BigBang. Le Big Bang n’avait réussi à fabriquer que de l’hydrogène et de l’hélium.Le carbone tout comme les autres éléments lourds a été formé plus tard dans lesétoiles. Nous sommes tous des « poussières d’étoiles », et l’existence de notre viedépend du fait que les étoiles existent et peuvent faire leur alchimie nucléaire,puis éjectent les produits de cette alchimie nucléaire dans l’espace interstellairepour former, éventuellement, des planètes sur lesquelles la vie pourrait émerger.Tout cela demande du temps, et c’est pourquoi l’univers doit être aussi âgé. Ilfaut quelques milliards d’années pour que toute cette évolution cosmiques’accomplisse.

Dans environ plus de cinq milliards d’années, le soleil s’effondrera en cequ’on appelle une naine blanche (un cadavre stellaire compact de la taille de laterre) en éjectant son enveloppe qui aura été enrichie par son alchimie créatriceen éléments lourds : carbone, azote, oxygène et autres éléments nécessaires à lavie et à l’émergence de la conscience. C’est une mort très douce et ce n’est pas unefaçon très efficace pour ensemencer l’espace interstellaire d’éléments lourds. Lafaçon la plus efficace est de faire éclater l’étoile en une supernova. L’explosiondégage autant d’énergie pendant cette phase que l’énergie de 100 millions desoleils.

Les étoiles jouent donc un rôle essentiel pour l’émergence de la vie et de laconscience ; comment fabriquent-elles le carbone à partir de l’hélium ? Un noyaude carbone résulte de la combinaison de trois noyaux d’hélium. Une rencontresimultanée de trois noyaux d’hélium est très difficile à arranger, il est beaucoupplus facile de faire se rencontrer deux noyaux d’hélium pour former un noyauintermédiaire, un noyau de beryllium, et ensuite de faire se rencontrer ce noyaude beryllium avec un troisième noyau d’hélium pour former un noyau de carbone.Mais il y a un hic : le beryllium a un temps de vie très court. Dès qu’il se forme, ilse désintègre tout de suite : en fait le temps de vie de ce noyau de beryllium, estde 10 puissance –15 secondes (le chiffre 1 arrive après 15 zéros). Donc, a priori, ilne dure pas assez longtemps pour se combiner avec un noyau d’hélium etfabriquer un noyau de carbone. À moins qu’il existe ce qu’on appelle unerésonance d’énergie, c’est-à-dire que la somme des énergies des noyaux deberyllium et d’hélium soit très proche d’un niveau d’énergie du carbone. Or on neconnaissait, à cette époque, aucun niveau d’énergie du carbone ayant cettevaleur. L’astrophysicien britannique Fred Hoyle a alors tenu un raisonnement decaractère anthropique : « Nous existons et nous savons que nous sommes faits decarbone. Donc, il faut que la carbone existe et il faut nécessairement que ceniveau d’énergie existe ». Il a demandé à ses collègues de mesurer ce niveaud’énergie et ils l’ont trouvé exactement où il a été prévu. La somme de l’énergiede l’hélium et du beryllium est de l’ordre de 7,370 millions d’électronvolts (le Mevest une unité d’énergie) et l’énergie du carbone est légèrement supérieure : 7,656Mev et c’est ce qui permet à cette réaction résonante de se produire bien que leberyllium disparaisse très vite. La valeur des niveaux d’énergie d’un atomedépend de nombreuses constantes physiques, telles la masse du proton, la masse

Page 69: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

de l’électron, l’intensité de la force électromagnétique, etc. Or ces constantes onteu justement les valeurs nécessaires pour que le carbone, et donc la vie telle quenous la connaissons, apparaisse. Première coïncidence.

Mais il y a une deuxième coïncidence, tout aussi extraordinaire. Elleconcerne la fabrication de l’oxygène qui résulte de la combinaison d’un noyau decarbone avec un noyau d’hélium. En fabriquant l’oxygène, il faut faire attentionde ne pas détruire complètement le carbone car il faut le conserver pourengendrer la vie plus tard. Ici intervient la seconde coïncidence : le niveaud’énergie de l’oxygène est légèrement inférieur à la somme de l’énergie ducarbone et de l’hélium. Et cela empêche justement la transformation de tout lecarbone en oxygène. Ainsi la nature a donc réglé de façon extrêmement préciseles constantes physiques, de manière à produire en abondance du carbone et del’oxygène qui sont tous deux nécessaires à la vie.

Il y a d’autres coïncidences tout aussi extraordinaires. Je vais vous décrirecelle qui existe entre la charge électrique du proton et celle de l’électron.L’électron a une charge négative, le proton a une charge positive. On a mesuréavec une grande précision ces charges. Bien que le proton soit près de 2 000 foisplus massif que l’électron, leurs charges sont égales, et on ne sait pas pourquoi. Sila charge électrique du proton et celle de l’électron différaient seulement d’uncent millième de millionième, les pierres, les tables, les personnes exploseraient àcause du déséquilibre électrique qui existerait entre les charges. À l’échelle desgalaxies ou des étoiles, cette contrainte d’égalité des charges devient encore plusimportante, car il y a beaucoup plus d’atomes. Si la charge du proton et la chargede l’électron différaient seulement d’un milliardième de milliardième, toutexploserait : la terre, le soleil, les étoiles. De nouveau, le réglage doit êtreextrêmement précis.

Une autre coïncidence : celle qui concerne les masses du neutron et duproton. Il se trouve que le neutron a un millième de plus de masse que le proton.Et cette différence est très importante pour la vie telle que nous la connaissons.Le temps de vie du neutron est très petit : de l’ordre de 15 minutes seulement. Enfait il se désintègre en proton. Tandis que le temps de vie du proton estpratiquement éternel. Les expériences montrent qu’il doit vivre au moins 1032

années. Il en est ainsi parce que la masse du neutron est plus grande que lamasse du proton et donc le neutron peut se désintégrer en proton. À cause de salongue vie, le proton peut servir de carburant nucléaire aux étoiles. Mais sil’inverse était vrai, si la masse du proton était plus grande que la masse duneutron, ce serait le proton qui se désintègrerait en neutron, et ce serait leneutron qui servirait de carburant. Or, la combustion du neutron est très rapide,et les étoiles dureraient seulement un siècle si elles étaient composées en totalitéde neutrons. De nouveau, les masses du proton et du neutron ont juste la valeurnécessaire pour que la vie et la conscience apparaissent.

Je peux encore vous décrire d’autres univers-jouets. Prenons un univers-jouet où la force nucléaire forte est divisée par deux. Les deutérons, qui résultentde la combinaison d’un proton et d’un neutron, ne se forment plus parce que la

Page 70: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

force forte ne sera pas assez forte pour retenir le neutron et le proton ensemble. Iln’y aura pas non plus d’hélium puisque celui-ci résulte de la combinaison de deuxdeutérons. Sans hélium, pas de combustion nucléaire, ni d’étoiles ni de vie. Et sinous augmentons la force forte par un facteur de 2, les protons se combinent 2par 2 pour former ce qu’on appelle un diproton. Le diproton est un carburant quibrûle très vite : les réactions s’emballent et les étoiles explosent. La vie n’a pas letemps d’apparaître. De nouveau, nous constatons que les constantes physiques,l’intensité des forces physiques, sont très soigneusement réglées, dans notreunivers, pour l’apparition de la vie.

Encore un autre exemple, qui va permettre de répondre à la question :pourquoi vivons-nous dans un espace à trois dimensions ?

Supposons que nous vivions dans un univers à une dimension, c’est-à-diresur une ligne droite, ou dans un univers à deux dimensions c’est-à-dire un plan.Dans un univers à une ou deux dimensions, notre cerveau, qui est composé demilliards de neurones, sera soit une ligne droite, soit totalement aplati. Tous lessignaux électriques qui parcourent les neurones s’entrecroisent parce que toutsera sur la même ligne droite ou sur le même plan, donc la pensée ne sera paspossible. Il faut un univers à trois dimensions ou plus pour fabriquer un cerveauavec des neurones, où les signaux ne se mêleront pas. Considérons maintenanttous les univers avec plus de trois dimensions : quatre, cinq, etc. On s’aperçoitque, dans ces univers, les orbites des planètes ne seront plus stables autour desétoiles. Si la terre était dans un tel univers, soit elle tomberait vers le soleil, cequi détruirait toute vie, soit elle s’éloignerait du soleil et deviendrait un vagabonddans l’espace glacé du milieu interstellaire où toute vie est impossible. L’universà trois dimensions où nous vivons, est le seul qui permette l’émergence de la vieet de l’intelligence.

Je vais vous décrire maintenant le réglage de la densité de matière del’univers. La matière exerce une force gravitationnelle attractive qui ralentitl’expansion de l’univers. Si la densité était trop grande, les galaxies, au lieu des’éloigner les unes des autres, se rapprocheraient et le Big Bang serait devenu unBig Crunch : tout s’effondrerait au bout d’une année, de dix années, d’un siècle oupeut-être d’un million d’années. Et à nouveau, c’est un temps trop court pour quela vie et la conscience, la complexité, émergent.

Diminuons alors la densité de l’univers : maintenant la gravité esttellement faible que les galaxies et les étoiles ne se formeraient pas. En fait, ondoit régler cette densité de l’univers à son commencement avec une précision del’ordre de 10-12. Pour vous donner une image, la précision du taux d’expansioninitial de l’univers doit être comparable à la précision qu’il faut à un archer pourplanter une flèche dans une cible d’un centimètre carré de côté, qui serait placéede l’autre côté de l’univers, à 15 milliards d’années-lumière. Une précisionextrême.

Dans mon dernier exemple, je vais jouer avec la force de gravité. La forcede gravité est très faible par rapport à la force électromagnétique, le rapport des

Page 71: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

deux forces étant de l’ordre de 10-40 : c’est pourquoi vous pouvez soulever un clouavec un aimant, bien que toute la masse de la terre attire le clou. Mais malgré safaiblesse, la gravité règne dans l’univers parce que la matière s’additionnetoujours, tandis que, à cause de l’égalité de la charge de l’électron et du proton,les charges électriques et la force électromagnétique s’annulent.

Alors, si on construit un univers où la force de gravité est multipliée par10, quelles en sont les conséquences ? Les étoiles, bien sûr, deviendront beaucoupplus petites parce que les forces d’attraction dues à la gravité seront beaucoupplus fortes. Une étoile dans cet univers pèsera 10-15 fois la masse de notre soleil.En fait, elle aura une masse de 1012 tonnes, celle d’un astéroïde. Le diamètre del’étoile sera de l’ordre de 2 Km au lieu de 200 000 Km, sa durée de vie sera d’uneannée au lieu des 10 milliards d’années de notre soleil. On aura ainsi un universoù tout sera accéléré dans le temps, où tout sera beaucoup plus petit. La tailledes galaxies deviendra aussi beaucoup plus petite (un dixième de milliardième defois moins grande), les planètes seront beaucoup plus proches de leur soleil (troiscents fois plus proches). Au lieu de 365 jours pour faire le tour de leur étoile, illeur faudra 20 jours seulement. Et la planète tournera sur elle-même en uneseconde. Sur terre, la plus grosse montagne aura 30 cm. Les organismes vivantsde cet univers seront beaucoup plus petits et moins massifs. Ils auront la massed’un millième de gramme. Dans ce genre d’univers, la complexité qui engendrel’intelligence et la conscience aura bien des difficultés à émerger.

Ainsi notre existence dépend d’un réglage d’une précision inimaginable desconstantes physiques et des conditions initiales de l’univers.Quelle attitude adopter devant cette constatation ?

Nous nous trouvons face à deux alternatives : nous pouvons dire que ceréglage est complètement dû au hasard. Alors pour expliquer son existence, ilfaut postuler une infinité d’univers parallèles. La notion d’univers parallèles asurgi à plusieurs occasions en physique. D’abord en mécanique quantique. Selonle physicien américain Hugh Everett, l’univers se divise en deux chaque fois qu’ily a alternative, choix ou décision.

Par exemple, il y aura un univers où vous êtes allé au cinéma et un universoù vous serez resté chez vous ; un univers où le mur de Berlin et le communismerusse seraient tombés ; un autre univers où ils auraient continué à exister. Lephysicien russe Andreï Linde a proposé un modèle de Big Bang où notre universne serait qu’une bulle parmi une infinité d’autres bulles-univers dans un meta-univers. On peut aussi imaginer que notre univers est cyclique, et que notreprésent univers n’est qu’un cycle parmi une infinité de cycles sans début ni fin.

Ces univers parallèles sont complètement déconnectés les uns des autres,et inaccessibles à l’observation. Il n’y a donc aucune manière de vérifier leurexistence. Dans cette hypothèse des univers parallèles, on peut invoquer lehasard, il y aura toutes les combinaisons possibles de constantes physiques et deconditions initiales, et tous ces univers seront infertiles et dépourvus de vie et deconscience. Sauf le nôtre, où, par hasard, la combinaison sera gagnante et nous

Page 72: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

sommes le « gros lot » de cette loterie. Le choix du hasard est donc permis par lascience. Pour ma part, je trouve ce choix assez désespérant, car il amène ledésespoir comme en témoignent les propos de Monod ou de Steven Weinberg :« Plus l’univers est compréhensible, plus il est dépourvu de sens ».

D’autre part, postuler une infinité d’univers complètement inaccessibles àl’observation va à l’encontre du postulat de simplicité d’Occam (tout ce qui n’estpas nécessaire est inutile) et fait violence à l’harmonie, la beauté et l’unité deslois que nous constatons dans la nature et à la sensibilité d’observateur del’univers.

L’autre attitude que nous pouvons adopter, c’est de dire qu’il y a un seulunivers. Mais s’il n’y a qu’un univers, et qu’il existe un réglage si précis, il fautpostuler l’existence d’un Principe Créateur qui est à l’origine de ce réglage. Lascience ne peut pas choisir entre ces deux hypothèses. C’est à chacun de faire sonpari pascalien.

Pour ma part, je parie non pas sur le hasard, mais sur la nécessité. Nonseulement j’ai du mal à croire que la complexité et la beauté du monde quej’observe au télescope sont dus au pur hasard, mais ce pari permet le sens etl’espérance.

Page 73: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

Le principe anthropique - Débat

Intervenants : Bernard d'Espagnat, Jean-Michel Alimi, Trinh Xuan Thuan, JeanBricmont, Jacques Vauthier, Bassarab Nicolescu, Pierre Perrier, Lucien Israël,Hervé Zwirn, Bruno Guiderdoni, Jean Staune, Jean-François Lambert et ÉricBois.

Bernard d’Espagnat

J’ai deux réactions, naïves, je le crains, l’une et l’autre… et qui vont dansdes sens contraires ! La première est de me dire : supposons (ce qui est peut-êtrevrai, je n’en sais rien : je dis donc « supposons ») que l’existence de cristaux deneige aussi étonnants — en variété, en complexité, en beauté etc. — que ceux quise forment sous nos yeux ne soit concevable que moyennant un réglageextrêmement fin, donc, à première vue, fort improbable, des constantes, niveauxd’énergie etc. qui interviennent dans la structure de l’eau. Si la chose étaitprouvée, dirions-nous pour autant qu’il y a un « principe cristallique » ?Émettrions-nous la conjecture que l’Univers a été créé peu ou prou dans le butque les cristaux de neige soient aussi complexes et beaux qu’ils le sont ? Il estpermis d’en douter et, du coup, je me dis que la plausibilité que nous accordonsau principe anthropique pourrait bien n’avoir sa source que dans le fait que nousy sommes nous-mêmes partie prenante, alors que, en ce qui concerne l’existencedes cristaux de neige, nous ne sommes pas impliqués. En ce qui concerne leprincipe anthropique, cette première mienne réaction m’inciterait donc plutôt auscepticisme.

La seconde va en sens inverse. Elle part de la constatation que jadispresque tout le monde était déiste. Cela tient à ce qu’il y avait alors un argumentpuissant en faveur de cette hypothèse. Voltaire lui-même — qui ne s’affichaitpourtant pas comme calotin ! — était déiste. Il disait en substance : « quand jevois une horloge, je sais qu’il y a eu un horloger ». Lorsque, l’évolution ayant étédécouverte dans les faits, Darwin en proposa une théorie explicative, l’argumenten question perdit évidemment beaucoup de sa force de conviction, puisque lacomplexité du vivant pouvait s’expliquer sans cette référence à un « horloger ».Mais ici, dans le domaine de la cosmogénèse, nous nous trouvons, en quelquesorte, dans une situation pré-darwinienne. Nous constatons des réglagesextrêmement fins, qui nous font pencher en faveur d’une explication de naturetéléologique. Et nous ne disposons pas pour l’instant d’une théorie bien construitequi serait l’équivalent de celle de la sélection naturelle en ce que, dans le domaineen question, elle pourrait servir de substitut à la notion de principe anthropique.Au total, donc, je me trouve en un état de suspension de jugement.

Jean-Michel Alimi

Je souhaite réagir sur un plan scientifique et pour une part philosophiqueaux propos de T.X. Thuan. Les différents arguments qui ont été avancés,concernant un réglage hyper fin des constantes fondamentales de la nature

Page 74: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

nécessaires pour permettre l'apparition de la vie dans l'Univers, sont de naturestrès différentes, et de ce fait, ils ne peuvent êtres considérés tous, de la mêmefaçon.

L’argument consistant à envisager qu'une très faible différence entre lacharge électrique de l'électron et celle du proton conduirait les objets qui nousentourent à exploser, n’est pas réellement recevable. En effet, qu’est ce que laphysique ? C’est une explication plus ou moins précise du réel matériel qui nousentoure. Les lois, élaborées par les physiciens, qui fondent notre modèle explicatifde cette réalité, sont admises lorsque tout au moins, leurs prédictions théoriquessont en accord avec les mesures objectives, expérimentales ou observationnelles,que nous sommes capables de réaliser. Une fois que les lois physiques sontétablies, si un désaccord évident apparaît entre la réalité expérimentale ouobservationnelle et les prédictions théoriques, comme la non-stabilité des objetsenvironnants, cela signifie, que c’est la loi qui est en cause et qui doit êtrecorrigée, et non que la réalité physique est particulièrement singulière. Dansl'exemple qui nous intéresse, ce n'est pas la différence éventuelle entre la chargede l'électron et du proton qu'il faudrait questionner, mais notre capacité, le caséchéant si cette différence existait, à expliquer alors la stabilité des objets quinous entoure. Nous aboutirions dans ce cas, fort probablement à de tout autreslois physiques que celles que nous connaissons aujourd’hui. De plus, les loisphysiques sont élaborées de façon cohérente, non seulement avec la réalitéexpérimentale et observationnelle, mais également entre-elles. C’est pourquoil'observation d'un évènement aussi “ étrange ” qu’une différence entre la chargede l'électron et celle du proton mettrait en difficulté non pas une loi physiqueparticulière ayant trait à cet événement mais des pans entiers de notrecompréhension physique du monde.

Il a été avancé par contre, des arguments à propos du principe anthropiquede nature tout à fait différente. Je pense aux arguments cosmologiques. Parexemple, celui concernant la valeur du paramètre de densité __(omega), quimesure la quantité de matière dans l'univers. Si la valeur de ce paramètre esttrop élevée, le temps durant lequel l’Univers serait en expansion avant de secontracter à nouveau pour finir dans un big-crunch, risque d’être trop court pourpermettre l’apparition des structures complexes (galaxies, étoiles, planètes…) quenous observons aujourd’hui. Cette fois, cet argument se place à l'intérieur denotre champ de connaissance de l’Univers, il est donc tout à fait recevable.

Plusieurs arguments de natures différentes ont donc été avancés. Certainssont recevables à l'intérieur de notre connaissance du réel, d'autres le sont moinssinon pas du tout. En effet s’ils étaient pris en compte, ils détermineraient uneautre connaissance du réel où tout serait éventuellement à reconsidérer. C'estpourquoi il ne nous est pas toujours possible de tirer une conclusion relative àl’existence même de ce réel que nous tentons de comprendre, comme tente de lefaire une formulation abusive du principe anthropique.

Mon deuxième commentaire concerne la question du déisme ou du non-déisme par rapport à l’existence même de la nature dans toute sa complexité. Il

Page 75: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

faut à nouveau être très prudent. De quoi parlons-nous lorsque nous faisonsréférence à Dieu ou à toute chose en rapport avec Dieu ? Est-ce de Dieuréellement dont nous parlons ? est-ce du Divin ? Toutes ces notions sont àdistinguer. Il ne faudrait pas réduire la question de Dieu simplement à laquestion d'un architecte suprême.

Trinh Xuan Thuan

Je souhaiterais commenter ce que Jean-Michel Alimi a dit. Je suis d’accordavec lui : il existe des arguments plus probants que d’autres et j’aime surtout leréglage de la densité des matières. Mais les arguments cosmologiques sont trèsconvaincants.

Jean Bricmont

Vis-à-vis de ce principe anthropique, je souhaiterais suggérer une attitudeà la fois plus positiviste et plus darwinienne que celle que vous avez adoptée. Il ya une réaction de Russell que j’aime beaucoup. L’argument que vous donnez esten fait une version nouvelle de ce que les anglo-saxons appellent « the argumentfrom design », et, comme le dit Russell, « n’y a-t-il pas quelque chose de ridiculedans l’homme qui tient un miroir devant lui et qui dit que ce qu’il y voit esttellement extraordinaire et tellement beau qu’il faut nécessairement une divinitépour l’avoir créé ? ». Je trouve cela très narcissique comme point de vue.

Trinh Xuan Thuan

Ce n’est pas seulement de l’homme dont je parle. C’est de l’existence d’uneforme de conscience dans l’univers.

Jean Bricmont

La réflexion à laquelle j'arrive c'est : qu'est-ce qu'une explicationscientifique ? Il me semble que la vertu des théories scientifiques c'est justementleur testabilité. La démarche consistant à utiliser les trous de notre connaissancepour justifier l'idée d'un grand architecte dont on ne sait rien, à part qu'il remplitce trou, me semble typique de l'attitude pré-scientifique. J'aurais donc tendance àdire, et c'est ce que j'appelle l'aspect positiviste de ma démarche, qu'il y a deschoses que l'on ne comprend pas. Et les coïncidences que vous mentionnez, on neles comprend pas. Il y a quantité de choses qui paraissaient être des coïncidencesdans le temps et que maintenant on comprend et il y en a d'autres que l'on necomprend toujours pas. Peut-être les comprendrons-nous plus tard ou peut-êtrene les comprendrons-nous jamais. Mais moi j'ai tendance à trouver que si oncomprend certaines choses, on va les comprendre en termes d'autres choses qu'onne comprendra pas (pourquoi les lois fondamentales sont ce qu'elles sont etc.). Onarrive évidemment à reculer l'horizon de notre ignorance : dans le temps, on nesavait rien, on ne savait pas pourquoi il y avait des étoiles, on ne savait mêmepas à quelle distance elles étaient de la terre. Mais on n'élimine pas notreperplexité. Maintenant je prends le point de vue darwinien. Qui sommes-nous

Page 76: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

pour croire que l'univers doit être parfaitement transparent, compréhensible,sans question, etc… ? Le mystère de la conscience, par exemple, est pour moibeaucoup plus compliqué que toutes les coïncidences physiques que vousmentionnez. Cela paraît normal, en tant que darwinien, que ce petit animal quiest muni d'un cerveau grâce à la pression de la sélection naturelle, soit perplexeface à l'univers dans lequel il vit. Mais ce que la science nous apporte de précieuxc'est de ne pas donner des fausses réponses ou des non-réponses. Et lorsque vousdites qu'il y a deux possibilités, je dirais qu'il y en a une troisième : " je ne saispas", l'abstention. Je ne fais pas le choix entre vos deux possibilités, je dissimplement qu'il y a des choses que l'on ne comprend pas. Alors peut-être quedemain il existera une théorie qui nous expliquera pourquoi la charge del'électron et du proton sont les mêmes. Sénèque dit : " l'observation durantplusieurs siècles vous fera apparaître avec évidence la vérité sur les comètes ".Auriez-vous répondu à Sénèque que l'on ne peut pas toucher les comètes, qu'onne les voit que furtivement, qu'on ne sait pas ce que c'est ? Là, ça ne paraît plusmystérieux. Qu'est-ce qui vous dit que dans 2000 ans on ne trouvera pas desréponses à des choses qui nous paraissent aujourd'hui mystérieuses ? Je suisnéanmoins sûr que l'on trouvera alors d'autres choses mystérieuses. C'est lacondition humaine. Mais quand on dit " il y a un grand architecte, il y a unprincipe un tel, etc… ", on donne de fausses réponses, parce qu'elles sonttotalement intestables, et c'est ce genre d'explications ad hoc que la science nousamène à abandonner.

Jacques Vauthier

Les constantes étant ce qu’elles sont, la matière est parvenue à laconscience d’elle-même par l’intermédiaire du cerveau humain. Je ne suis pas dutout certain que c’était impliqué par la sélection naturelle.

Basarab Nicolescu

Je crois qu'il serait important que l'on fasse la distinction nette dans nosinterventions entre ce qui est vraiment le terrain de la science et ce qui est leterrain de la philosophie, car si l'on mélange les deux, on ne va pas s'en sortir etl'on va assister à la millième rencontre sur le principe anthropique sans aucunbénéfice. On convient ou non que les points de vue dans la science sont tout à faithonorables, mais dans la philosophie, chacun peut dire ce qu'il pense. Et si l'onmélange les deux, on peut tout affirmer et c'est grave.

Bernard d’Espagnat

Comte-Sponville dit quelque chose de tout à fait honorable à mes yeux :« La philosophie, c’est penser plus loin qu’on ne sait ».

Basarab Nicolescu

C’est exact. Et Heidegger disait : « la science ne pense pas ».

Page 77: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

Jean-Michel Alimi

Je ne voudrais pas que l'on retienne de ma première intervention uneimpression trop critique vis-à-vis du principe anthropique. Cela ne serait pascorrect, étant donné le rôle important que ce principe joue à l’heure actuelle enrecherche en tant que principe de sélection entre modèles cosmologiques. Macritique, je le répète, concernait le mélange d'arguments de nature différente, quiconsiste à utiliser ce que l'on sait sur le réel en le plaquant sur quelque chose quiprouverait que le réel dans ce cas-là n'existerait pas. Alors que justement ce quel'on élabore sur le réel suppose que ce réel-là existe.

Pierre Perrier

Un critère de pertinence sur les modèles peut être dérivé de la notion dedensité de modèles possibles. Je veux dire que s'il y avait une extrême densité demodèles mathématiques possibles pour modéliser le monde, alors le choix d’unmodèle particulier ne signifierait pas grand chose. On trouverait toujours unmodèle et le succès des mathématiques ne serait qu’une simple possibilitéd’ajuster à un ensemble de données expérimentales un ensemble élevéd’ajustement des constantes et des formes mathématiques. Or nous aboutissons àune situation inverse, où les outils mathématiques sont fortement contraints pardes critères d’indépendance des repères et de formulation de principes simples deminimum. Certes la description rationnelle du réel n’est pas simplemathématiquement (par suite de la prise en compte de la diversité des situationscomplexes) mais élémentairement nous pouvons espérer une simplicité de bonaloi : la multiplication du nombre des scientifiques n’a pas multiplié les modèlesde base mais les approximations des configurations complexes et les tentativesinfructueuses de nouvelles variantes des modèles.

Lucien Israël

La vie n’est apparue sur cette planète qu’une seule fois. Et avec les mêmesmatériaux. Nous le savons car nous avons des gènes qui sont homologues de ceuxqui existent chez les archéobactéries. Elle aurait pu apparaître plusieurs fois surdes bases différentes. On peut concevoir une vie à base de silicium aussi bienqu’une vie à base de carbone, par exemple. Mais c’est allé plus loin que cela, carnon seulement elle a choisi le carbone mais en plus, à partir du moment où elleest apparue elle n’a fait que se diversifier, se complexifier, elle n’est pas mortepour renaître ailleurs autrement. C’est l’information que je voulais donner surl’observateur.

Hervé Zwirn

Je voudrais d'abord revenir sur la discussion que l'on avait tout à l'heureen raison de mon scepticisme sur les raisonnements du type : " si telle constanten'avait pas exactement telle valeur, il se passerait ceci". En fait, un telraisonnement est ce qu'on appelle un contre factuel. On se dit si les chosesavaient été comme ceci, alors aujourd'hui il se passerait cela. Or, il ne se passe

Page 78: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

pas cela, on le constate, donc c'est qu'il ne s'est pas passé ceci avant. Ce type deraisonnement est la base même du principe anthropique, au moins le principefaible. Il consiste à dire que si telle ou telle constante avait été différente, enutilisant les lois de la physique on en conclurait que les choses devraient êtredifférentes de celles qu'on observe. Un raisonnement par l'absurde permet alorsd'en conclure que l'hypothèse (à savoir la valeur différente de telle ou telleconstante) est fausse. Mais dans ce cas, on raisonne toutes choses égales parailleurs, c'est-à-dire qu'on fait des simulations numériques qui permettent deprédire ce qu'on observerait si la seule chose qui changeait, était, par exemple, lavaleur de la masse du proton ou le rapport entre la charge du proton et la chargede l'électron mais que tout le reste (par exemple les lois physiques) ne changeaitpas. Or ceci me paraît contestable car on pourrait penser que si la masse duproton change alors telle ou telle loi de la nature pourrait changer aussi etpermettre ainsi de rétablir ce qu'on observe. Si en changeant à la fois la masse duproton et une loi physique on peut rétablir la concordance avec ce qu'on observealors rien ne nous permet de déduire que la masse du proton doit nécessairementavoir sa valeur constatée pour que l'univers soit tel que nous l'observons. La seulechose — et c'est la raison pour laquelle on avait cette discussion tout à l'heure —qui s'oppose à ce raisonnement c'est la densité des modèles. Vous me dites quevous changez la charge du proton et que vous ne retrouvez pas le monde réel etmoi je vous dis : "vous avez tort parce que si vous changez la masse du proton moije retrouve le monde réel parce que je change aussi la loi de la gravitation" (ça n'arien à voir, mais il s'agit juste d'un exemple). La seule réponse qu'on peut faire àcela c'est de dire : "non, vous n'y arriverez pas parce que si vous changez la massedu proton, vous aurez beau changer tout ce que vous voulez à côté dans les lois etbien vous ne retrouverez pas un modèle qui décrit correctement le monde réel".C'est un argument fort, et je dirai comme Bricmont que je vais suspendre monjugement parce que je suis relativement sceptique quant au fait qu'il soit possibleaujourd'hui de le démontrer rigoureusement. En philosophie, on connaît la thèsede la sous-détermination des théories par l'expérience défendue par Quine, quidit que quel que soit le stock fini d'éléments observationels, il existe toujours ungrand nombre de théories qui prédiront ces observations. C'est un peu l'idée dedire que par un nombre fini de points, il passe une infinité de courbes. Alors, leproblème de savoir s'il y en a plusieurs ou une seule à mon avis se résout parceque en général il y en a plusieurs. Le problème de savoir si c'est dense est unproblème plus complexe et là, j'avoue que c'est un problème qui est ouvert. Maissi les modèles peuvent être denses, l'argument anthropique ne tient plus, parcequ'on peut toujours dire que si on modifie telle ou telle constante, il suffit demodifier d'une certaine manière les lois de la nature pour qu'on retrouve lemonde réel. Je ne prétends rien prouver, je veux juste souligner que la rigueur duraisonnement n'est pas suffisante pour arriver à la conclusion que ses partisanstirent.

Basarab Nicolescu

Pourriez-vous être plus précis ? De quelle manière opère-t-on cesmodifications ?

Page 79: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

Hervé Zwirn

Si je le savais, je serais capable de proposer des théories alternatives auxthéories en vigueur et qui décriraient aussi bien le monde réel. Malheureusementje ne sais pas le faire. Je dis simplement que pour que le raisonnement duprincipe anthropique soit parfaitement irréfutable, il faudrait en toute rigueur,qu'on ne puisse pas éliminer la possibilité de construire d'autres modèles avec desvaleurs différentes des constantes. J'en suis bien évidemment incapable sinonj'aurais publié. Cela dit l'histoire des sciences montre qu'à plusieurs époquessuccessives, on a été capable de rendre compte de certaines donnéesexpérimentales avec des théories qui se sont modifiées. Donc je dirais que sur leplan purement logique c'est une hypothèse douteuse, bien que, évidemment, auplan concret, je sois incapable de proposer des alternatives crédibles aux théoriesmodernes de la Physique.

Pierre Perrier

Sur la densité des modèles, moi je n’ai pas de démonstration, mais je saisque c'est vraiment quelque chose de très important, c'est vraiment la chose debase et effectivement, si on ne peut trouver que quelques « modèles du tout » àcause des contraintes de cohérence, les portées des divers arguments pour oucontre la validité des démonstrations anthropiques en seront très affectées. J'aisimplement une expérience de scientifique à travers laquelle je sais qu’il estextrêmement difficile, lorsqu’on modifie une théorie cohérente, d'en reconstruireune autre. Et plus le nombre de constantes est élevé et plus c’est à peu prèsinimaginable. Or, ce qui était intéressant pour moi dans la présentation deThuan, c'était le nombre de cas qui étaient présentés et que l’on pourraiteffectivement plus ou moins bien dénombrer comme indépendants ; ce n'est pasune démonstration, mais quand même cela aurait tendance à confirmer que noussommes dans un Univers d'une complexité telle que le fait qu'on soit arrivé àtrouver des lois signifie que leur densité est quand même très faible par rapportaux possibles. Tenez cela pour ce que c’est, rien de plus.

Jean Bricmont

J'aimerais faire une intervention à propos de ces modèles. D'une part à unniveau plus ou moins scientifique et d'autre part revenir sur le problèmephilosophique. Du point de vue scientifique, prenons un autre exemple qui est unpeu comme le principe anthropique et que S.J Gould aborde souvent. Il s'agit dufait qu'il y a des changements dans l'évolution qui n'étaient pas prévisibles etque, si l'on refaisait le film de la vie depuis le départ, avec des petitschangements au départ, on n'obtiendrait pas des êtres humains etc … Il y a dansl'histoire de la vie vue par Gould cette idée d'un " fine tunning " parce qu'il fallaitque le météore tombe juste au bon moment pour éliminer les dinosaures etc…Mais, lorsque je vois ça, je me dis toujours : "qu'est-ce qu'il en sait ?". Je tienspour évident qu'il y a tellement de paramètres en jeu qu'on a absolument aucuneidée de l'ensemble des possibilités, ce qui fait qu'on ne peut pas dire que lapossibilité qui est réalisée est réellement exceptionnelle.

Page 80: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

Pierre Perrier

Cela s'appelle l'état adjoint. C'est-à-dire que si vous considériez le travail àl'envers et que vous regardiez les possibles pour arriver à une solution, cela nouspermettrait de savoir le nombre d'incertitudes sur le trajet inverse. Et c’estquelque chose qui n’est pas encore considéré. Il faut donc décanter le principeanthropique.

Jean Bricmont

C’est ce que j’essaye de faire.

Pierre Perrier

Ne croyez pas qu’il n’y a pas quand même des coïncidences.

Jean Bricmont

Je ne dis pas qu'il n'y a pas de coïncidences mais le problème c'est que pourapprécier les coïncidences il faudrait que je connaisse l'espace des possibles, or jene le connais pas. J'ai l'impression que l'on arrive à l'histoire selon laquelle lesœuvres de Shakespeare n'ont pas été écrites pas Shakespeare mais par un autretype qui portait le même nom. C'est-à-dire que l'on pourrait avoir des êtres douésde conscience sur une autre planète et ils n'appelleraient pas ça la terre, maisenfin ils seraient là à s'étonner : "Tiens, pourquoi sommes-nous là et pourquoi ya-t-il un météore" etc ? Je n'ai aucune idée du nombre de terres possibles, d'astresqu'il pourrait y avoir et j'ai l'impression que dans les modèles c'est la mêmechose. Je veux dire, imaginons l'ensemble de toutes les lois possibles de la natureet toutes les constantes possibles, qui donneraient lieu après un certain temps àdes êtres doués de conscience. Que sait-on de cela ? Tout ce qu'on saiteffectivement c'est, comme vous l'avez dit, on prend notre univers, on change uneconstante, on laisse tout le reste fixe et l'on se rend compte que tout s'effondre.Mais l'objection fondamentale, pour moi, a à voir avec la notion d'explication. Etça c'est quelque chose qui va nous préoccuper, je pense, tout au long duséminaire, c'est que pour les gens de la rue ou la plupart des gens, les sciencessont ce que beaucoup de gens appellent les technosciences, c'est-à-dire que lessciences servent à prédire le futur. Une fois que la prédiction du futur estréalisée, elle permet des applications technologiques, parce qu'on sait que si onfait telle ou telle chose, on va avoir tel résultat et alors on peut construire desvoitures, des avions etc… Mais là où la science a une dimension culturelle c'estdans sa prétention à expliquer. Or, c'est là où il y a un conflit, par exemple avecles religions, parce que la religion aussi prétend expliquer. Ce qui importe est decomprendre la notion d'explication scientifique par opposition à une explicationde type traditionnel dans la Philosophie, la Métaphysique classique ou lareligion.

Page 81: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

9

Jean-Michel Alimi

Étant donné qu’il est sous-entendu dans les propos qui ont été tenusqu’une modification infime de la valeur d’une constante de la nature entraîne unevision radicalement différente de la réalité physique d’où nous déduisons larelativité de notre connaissance des lois physiques, je crois important de direquelques mots sur le fondement de ces lois physiques. La découverte des lois enphysique moderne n’est pas motivée et ne se justifie pas seulement par un bonaccord avec l'observation et l’expérience. Les lois physiques se justifientégalement par un développement théorique cohérent basé sur des principesfondamentaux. Mon propos rejoint la question que Jean Bricmont aprécédemment posée concernant la définition de l’explication scientifique.

Aujourd'hui les lois de la Physique sont, pour la plupart, basées sur desprincipes de symétrie et d'invariance. Les lois de la physique classique, parexemple, se déduisent de transformations de symétrie dans l'espace-temps.L’invariance par translation dans le temps de tout système physique isolé conduità la conservation de l'énergie, l'invariance par translation dans l'espace, du faitde l’homogénéité de notre espace, conduit à la conservation de la quantité demouvement, l’invariance par rotation, du fait de l’isotropie de l’espace, conduit àla conservation du moment angulaire. Ce procédé, qui s’étend au-delà destransformations dans l’espace-temps pour les développements les plus récents dela cosmologie et de la physique moderne, est un mode d'explication du réel. Ilrelie les transformations de symétries à l’existence d’invariant. Il permet alorsd’établir des lois de conservation, à partir desquelles nous déduisons les lois de laphysique. Si ces lois sont ce qu’elles sont, cela est donc dû aux propriétés desymétrie du monde dans lequel nous vivons. À partir de là, si nous voulons deplus, quantitativement expliquer ce réel, il nous faut des constantes de la natureavec des valeurs bien précises.

Bernard d’Espagnat

Je voudrais m'exprimer à propos de la notion d'explication, question queJean Bricmont a soulevée. Il me semble qu'en science (je ne parle ici ni dephilosophie ni de religion), il y a deux types d'explications. Il y a l'explication parle réel, où l’on explique les choses par le fait que les choses sont réellement commeça, explication qui était qualifiée de métaphysique par les positivistes. Et il y aun autre type d'explication, celui que favorisaient les positivistes, qui estl'explication par la référence à une loi générale. En mécanique quantique, nousverrons apparaître ce genre de différences. Il y a des personnes qui ne tiennentpour valable qu'une explication, l’explication « réaliste ». Ces personnes-là,lorsqu’elles se tournent vers la Physique Quantique, font appel à des théoriesontologiquement interprétables, qui décrivent la réalité et qui, par conséquent,nous donnent le seul type d'explication qui soit acceptable pour elles. Et il y aaussi des personnes qui sont finalement dans la ligne des positivistes de la belleépoque, c'est-à-dire qui disent que l’on a une explication si et seulement si onpeut rattacher des phénomènes à une loi parfaitement générale, même s'il s'agitd'une loi simplement prédictive, d’une recette. Mais une recette universelle. Et

Page 82: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

10

dans cette optique, une recette universelle est considérée comme une explication.En fait, nous verrons qu’en mécanique quantique standard, c'est-à-dire si on metde côté les théories du genre « variables cachées », c'est ce genre d'explications-làauxquelles on est automatiquement conduit et que l’on considère comme desvraies explications. Peut-être y a-t-il là un lien avec le problème anthropique,mais à vrai dire, je n'en suis pas sûr.

Jacques Vauthier

Un petit commentaire par rapport à ce qui est, je crois, une sorte detriangle qui apparaît dans la discussion. Un triangle entre l'homme qui regardel'Univers, qui constate qu’il y a des données. Ces données, il les appelle desconstantes. Elles correspondent à une expérience. Ce sont des expériences quidonnent ces constantes. Ce n’est pas à la suite d'une spéculation intellectuellequ’apparaissent des constantes. Elles sont là, elles valent ce qu'elles valent.Donc, c'est toute la partie expérimentale. Puis il y a la mise en cohérence de cesconstantes, de ces données expérimentales par la notion de modèles. Cette notionde modèle est une spéculation intellectuelle plus ou moins pertinenteapparemment — d'après ce que l'on constate, elle est relativement pertinente ! Iln'en reste pas moins que ce sont des spéculations intellectuelles. C'est-à-dire quela réalité est ce qu'elle est et l’on regarde à travers un « palpeur », un individu.C'est celui qui regarde cette réalité et qui l’interprète. Donc, on n’est déjà plusdans la réalité. C’est tout à fait dans le sens de ce que disait Bricmont tout àl'heure. Il y a une distanciation entre la réalité et ce qu’on en dit. La notion demodèles, c'est une carte d'état-major par rapport à la réalité. C'est ni plus nimoins. La carte d'état-major est plus ou moins précise. Ce qui est assez étonnantpour un mathématicien que je suis, c'est que grosso modo ces modèles ont unebase géométrique très forte. Que ce soit le système de Newton, que ce soitl'espace-temps qui est tout de même une géométrie de dimension 4 ou que ce soitla mécanique quantique qui est tout compte fait une géométrie de dimensioninfinie. Ceci est une première interrogation. Je voudrais maintenant aller àl'étape suivante, qui consiste à s'interroger sur la notion d’univers multiples ou,comme on dit parfois, de multivers. D’un point de vue philosophique, je dois direque je ne comprends pas très bien. Parce que l'Univers est l'ensemble des objetsqui sont donnés à notre perception et l'au-delà n'étant pas perçu, ne présente àmon avis aucun intérêt. C'est du niveau de la spéculation pure. Cela peut êtreintéressant, cela peut être un sujet de discussion, mais du point de vue de ce quinous intéresse, que voulez-vous que cela me fasse qu'il y ait quelque part d'autresUnivers causalement indépendants. Très bien, grand bien leur fasse. Qu'ilssoient causalement indépendants là où ils sont et qu'ils y restent ! Je n’aurai, detoute façon, jamais de contacts avec eux, par définition même, et, par conséquent,cela ne m'intéresse pas au sens génétique du terme. Donc, je voulais lancer ledébat sur ce point-là !

Jean-Michel Alimi

Il n’est pas nécessaire de considérer la théorie d’inflation pour parlerd’Univers ou tout au moins de zones d’Univers non directement perceptible mais

Page 83: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

11

malgré tout influentes sur notre univers observable : c’est déjà le cas enRelativité Générale. En effet, la théorie d’Einstein distingue l'univers observableet l’Univers dans son ensemble en un mot, l’Univers. L’univers observableenglobe typiquement l’espace qu’aurait parcouru durant l’âge de l’Univers, ungrain de lumière émis au Big Bang. Si cet âge est fini, l’univers observable estgrand mais fini. L’Univers, dans son ensemble au contraire, peut suivant lesmodèles, être infini. Il contient l'univers observable, comme une fraction infime,et il s’étend également à des zones qui ne nous sont pas directement accessiblespar l'observation. Ces zones cependant ne sont pas sans influence et donc sansintérêt sur notre univers observable. Pour mieux le comprendre, plaçons nous ànouveau dans le cadre des modèles d’inflation. Il existe de nombreux modèlesd’inflation cosmologique qui se distinguent par le moyen physique de “ booster ”l’Univers, par la durée, voire par le nombre de phases d’inflation dans l’histoirede l’Univers. Tous, cependant, envisagent un Univers plus étendu que notreunivers observable ; quelquefois même des Univers indépendants. La dynamiquede ces zones “ extérieures ” non causalement connectées aujourd’hui à notreunivers observable, a laissé des traces, spécifiques à chaque modèle d’inflation,sur notre univers observable. Nous avons par exemple montré qu’une phased’inflation ou deux phases d’inflation ne conduisent pas au même universobservable ; et plus généralement de nombreux travaux montrent que larépartition et les propriétés dynamiques des grandes structures de l’universobservable dépendent du modèle d’inflation cosmologique.

Jacques Vauthier

Spéculativement c’est intéressant. La définition est du mot univers. Qu’est-ce qu’un Univers ?

Jean-Michel Alimi

La Relativité Générale décrit la dynamique de tout l’Univers qui peut êtreinfini et où l’Univers observable n’est qu’une partie infime et finie pour unUnivers d’âge fini.

Jacques Vauthier

Mais quelle est la définition du mot Univers ?

Jean-Michel Alimi

En Relativité Générale, l’Univers est un objet physique très bien défini. Ils’agit du continuum espace-temps-matière. Tout ce qui est espace, temps oumatière constitue l’Univers.

Jacques Vauthier

C’est dans un modèle. Ce qui m’intéresse c’est du point du vuephilosophique. Quelle est la définition philosophique du mot univers ?

Page 84: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

12

Jean-Michel Alimi

Cela dépend des traditions. Toute tradition philosophique ou mêmereligieuse peut avoir son appréhension de l'Univers et du réel, tout à faitdifférente de celle des autres. Je ne me permettrais donc de répondre qu’en ce quiconcerne la Relativité Générale, qui n’est d’ailleurs pas un simple modèle. Elleest le cadre conceptuel, le cadre théorique dans lequel s’élabore pour l’essentiel lacosmologie moderne. En Relativité Générale tout ce qui est espace-temps etmatière est assimilable et identifiable à l'Univers. Et j'insiste sur ce fait :l’Univers de la Relativité Générale identifié à l’espace-temps-matière ne se réduitpas, loin de là, à notre Univers observable. Et bien qu’il soit effectivementl'élaboration d'une spéculation théorique, il n'est pas sans rapport, c’est le moinsque l’on puisse dire, avec l'Univers observable. D’ailleurs de façon générale, toutce qui n'est pas directement perceptible n'est pas sans intérêt.

Bruno Guiderdoni

Je voudrais revenir sur le caractère spéculatif de la cosmologie. Lacosmologie physique est une science très jeune, mais qui est de plus en plusassise sur des données. Je ne sais pas ce que vous appelez « spéculatif » mais jenote que la richesse des observations est maintenant telle qu’il n’y a pas de cadrethéorique ou de modèle global qui reproduise toutes les données. Donc c’est unproblème qui est actuellement trop contraint. Nous n’avons pas assez de« spéculations » pour reproduire la richesse des données. C’est un problème quiest en train de quitter le domaine de la spéculation échevelée pour rentrer danscelui de théories et de modèles testables dans le cadre des expériences en cours.Cela évolue extrêmement vite. La décennie à venir va être cruciale du point devue du test d’un certain nombre de modèles ou de théories dont on a pu parleraujourd’hui. On est donc dans un processus. Les choses évoluent très rapidementet je ne pense pas que l’on puisse dire que la cosmologie contienne trop de« spéculations » par rapport à d’autres domaines de la physique. Pour revenir surle « multivers », les cosmologistes utilisent des mots qui sont piégés, dont celuid’ « univers », qui est bien évidemment philosophique et qui fait référence à ceque l’on appelle la « réalité ». Ils l’utilisent maintenant à trois niveaux : 1)l’univers dans le cadre de la cosmologie relativiste (c’est l’ensemble temps-espace-matière), 2) là-dedans la théorie montre que nous n’en voyons qu’un tout petitbout, c’est l’univers observable, 3) et dans le cadre de la cosmologie quantique,Andreï Linde a introduit un autre terme technique, qu’il appelle le « multivers »,sur lequel on peut avoir certaines réticences tout à fait justifiées. Je crois que jepartage ces réticences parce qu’après tout, ce multivers est encore régi par deslois universelles qui sont au moins les lois de la mécanique quantique, donc onpeut se demander si la terminologie est adaptée ou pas, et s’il n’y a pas déjà desprésupposés idéologiques derrière elle, comme pour toute terminologie. Il fautdonc faire attention à ce que l’on appelle l’ « univers ». Ces morceaux d’univers ouces autres univers, selon la terminologie que l’on emploie, sont nécessaires, d’unecertaine façon à notre existence, dans le cadre du modèle de l’inflation chaotique,exactement comme, sur terre, l’Antarctique ou l’Arctique, où nous n’irons jamaissans doute, sont nécessaires à l’existence des zones tempérées où nous vivons.

Page 85: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

13

Nous sommes ici dans des spéculations qui sont récentes. L’inflation date desannées 80, l’inflation chaotique, de la fin des années 80. On réfléchit encore poursavoir si l’inflation chaotique est testable ou pas. Ce qui est sûr, c’est que lesmodèles d’inflation sont testables et seront testés dans ce cadre des observationsqui seront faites d’ici à la fin de la décennie. D’ailleurs, les résultats récentssemblent déjà avancer dans le sens de la théorie de l’inflation. Cela va très vite.Je crois que l’on est tous d’accord pour dire que le principe anthropique n’a pas destatut particulier et que sa dénomination est peut-être un peu fallacieuse. Quoiqu’il en soit, on est en train de parler de choses qui, actuellement, fontintimement partie du modèle standard du Big Bang. Et c’est dans ce cadreconceptuel unique — on n’en a pas d’autres — que nous pensons les trèsnombreuses observations. Les gens qui font les théories de grande unification, dugenre de la super symétrie, disent que ces théories vont permettre d’expliquerpourquoi les constantes du modèle standard des particules élémentaires ont lesvaleurs qu’elles ont. Pour tester ces théories, il faudrait des laboratoires avec desénergies tellement fantastiques que l’univers primordial est le seul lieu où l’onpeut espérer faire des prédictions qui soient testables. Donc du point de vueépistémologique et du point de vue de la division des sciences, une sorte deconvergence est en train de se produire, qui durera peut-être 5 ans, 10 ans, 50ans ou tombera dans une impasse, convergence au sein de laquelle ce discourssur l’inflation, l’inflation chaotique, l’univers primordial, la grande unification,est en train de dessiner des champs conceptuels nouveaux, où se fera la sciencedes décennies à venir. Donc, même si c’est en train de balbutier, s’il y des zonesqui ne sont pas absolument claires, il faut bien voir que c’est là que se faitactuellement une grande partie de la cosmologie.

Hervé Zwirn

Je souhaiterais revenir sur un point qui a été évoqué. On a parlé dumultivers et effectivement dans les différentes zones du multivers (et cela a à voiravec le principe anthropique), les lois de la nature pourraient être différentes ausens où le nombre de dimensions pourrait être différent, au sens où lesconstantes des lois pourraient être différentes, donc du point de vue du principeanthropique, c'est quelque chose qui est pertinent. En revanche, on a évoqué lecas de ce que l'on appelle les mondes multiples (théorie des mondes multiplesd'Everett) et là il me semble que ce n'est pas pertinent du tout dans le cadre duproblème du principe anthropique. Car dans le cadre des mondes multiplesd'Everett, il s'agit, lorsque l'on fait une mesure en mécanique quantique, de direqu'il est possible que lors de la mesure, le monde se scinde en autant de versionsdifférentes qu'il y a de résultats possibles pour la mesure. Si l'on mesure le spind'un électron qui peut être +1/2 ou –1/2, il y a un monde où le spin sera +1/2 et unmonde où le spin sera -1/2. On peut penser ce que l'on veut de cette théorie, maiscela n'a rien à voir avec le problème du principe anthropique car on ne se posepas, dans ces différents mondes, le problème de la valeur des constantes de lanature ou des différentes lois de la nature. Dans tous ces mondes, même si lamesure produit un résultat différent, les constantes restent les mêmes et les loisde la nature sont les mêmes. Ceci ne concerne donc en rien le principeanthropique.

Page 86: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

14

Jean Bricmont

Le fond du problème est de cerner cette notion de "qu'est-ce qu'uneexplication scientifique ?". Dans de nombreuses cultures et dans notre culturetraditionnellement, on peut dire : "quelqu'un est malade ou guérit et c'est lavolonté de Dieu". Maintenant, même les scientifiques croyants n'expliquent plusles choses de cette façon. On pouvait dire que c'était l'ordre naturel des choses.Aujourd'hui, plus personne n'est satisfait de ce genre d'explication car on al'impression qu'elles sont vides. On a dorénavant des explications scientifiques,mais ces explications s'arrêtent quelque part. Car lorsque l'on se pose unequestion, l'on remonte les causes et, à un moment donné, on arrive à quelquechose qui lui-même ne s'explique pas.

Basarab Nicolescu

Il faut respecter l'aspect scientifique, c'est évident. Mais au-delà de cela, ilfaut respecter la règle philosophique. La philosophie est une disciplineacadémique comme une autre. Lorsque vous employez d'une manière non-différenciée les mots "réel" et "réalité", c'est une erreur sur le plan philosophique :le réel est une chose et la réalité une autre. Je crois qu'il faut tout de mêmerespecter le langage d'une discipline ou d'une autre.

Jean Bricmont

Je ne suis pas d'accord. Il n'y a pas cette homogénéité, il y a trop dedivergences entre philosophes.

Jean Staune

Nous allons justement aborder un thème concernant la philosophie :l’argument from design. Thuan dit que ce qui est nouveau est que l’on puisserefaire le « pari de Pascal », après la découverte du rapport des masses duneutron et du proton. En d’autres termes, Thuan parle de la défaite du fantômede Copernic. Il dit : « le fantôme de Copernic n’a pas cessé de nous hanterpendant 3 ou 4 siècles (il sous-entend que l’homme n’avait pas plus d’importancedans l’univers que la dernière couche de peinture du dernier boulon de la TourEiffel n’a d’importance pour la tour Eiffel). Depuis, avec les découvertes enphysique, astrophysique et d’autres, on n’est pas obligé de traiter les chosescomme si l’homme n’avait aucune importance dans l’univers et qu’il était perdudans l’univers.

Jean Bricmont

Le pari de Pascal avait une autre portée. Il était plutôt question de savoirsi l'on allait sauver son âme ou non. La révolution scientifique a changé notreperspective sur ce qui compte comme explication. C'est la raison pour laquelle desexplications soi-disant scientifiques qui invoquent un univers totalementinobservable, même indirectement, sont tout aussi métaphysiques que les

Page 87: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

15

explications faisant appel à un principe créateur. Et d'une façon, je ne lesconsidère pas comme des explications, donc je préfère dire que je ne sais pas.

Jean-François Lambert

Bien que ne partageant pas les mêmes a priori philosophiques que JeanBricmont, je partage son "je ne sais pas" et souhaite dire pourquoi en m'appuyantsur Freud. Celui-ci doit, en effet, se retourner dans sa tombe en voyant que, dansles grandes librairies, les ouvrages de psychanalyse sont généralement classésdans les para-sciences avec les traités ésotériques et les manuels maçonniques.On sait que Freud, au contraire, a cherché à sortir les sciences humaines de lamétaphysique. Précisément pour Freud, la science, et donc la psychanalyse, esttout le contraire d'une vision du monde : elles s'opposent à la métaphysique. Lascience, selon Freud, doit arracher l'inconscient à la mystique et, de ce fait, ellene peut que (elle doit) frustrer l'homme de son besoin de vision du monde. Lascience, insiste encore Freud, a progressé à coup de traumatismes et elle n'est paslà pour soutenir l'imaginaire ambiant mais pour démasquer l'illusion. C'est dansce contexte qu'il parle d'une triple humiliation : après l'humiliation copernicienne(l'homme n'est pas le centre du monde) et l'humiliation darwinienne (l'hommen'est qu'une espèce de singe sans queue parmi d'autres), la psychanalyseapparaît comme l'humiliation la plus radicale puisque l'homme n'est même pluscertain d'être au centre de lui-même. J'ai rappelé ceci pour mettre en perspectivela distinction opérée par Freud, à la suite du philosophe allemand Dreysen, entrecomprendre et expliquer. Le but de la science est d'expliquer (comment), non decomprendre (pourquoi). Freud établit une démarcation absolue entre le caractèreparcellisant de la science et le caractère totalisant d'une vision du monde. Lacompréhension est de l'ordre de la métaphysique et l'affaire des religions. Cela nesignifie pas que ce genre de question ne soit pas pertinent et, comme le soulignePopper, il y a beaucoup de choses importantes à dire en dehors de la science et ilfaut pouvoir les dire, seulement il ne faut pas les faire passer pour scientifiques.Je crois personnellement que ni la science ni la métaphysique (et pourquoi pas lafoi) n'ont à gagner du mélange des genres. Si j'ai la foi ce n'est pas parce que lamasse du proton est conforme à ce que Thuan nous a raconté tout à l'heure. Et,de ce point de vue, cela m'est complètement égal que les modèles mathématiqueschangent et que les physiciens me donnent une tout autre explication du monde.La question « que faisons-nous là ? » continuera de se poser de la même manière.Je retrouve un écho de tout ceci chez S.J. Gould qui, dans son récent ouvrage "EtDieu dit : que Darwin soit", appelle au « non-empiétement des magistères » de lascience et de la religion. Je maintiens que ni l'un ni l'autre n'ont à gagner de laconfusion mais que chacun ne doit pas non plus ignorer l'autre. Au demeurant, laquestion fondamentale qui est celle du sens de ma vie, de la valeur de mes actes,des fondements de la justice, est pour moi totalement indépendante de la valeurdes constantes physiques. C'est pourquoi, avec Freud, je pense que la physiquedoit continuer à chercher à expliquer l'univers mais que même si elle y parvenaitun jour il resterait à le (et à me) comprendre, ce qui n'est pas son affaire.

Page 88: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

16

Eric Bois

Il pourrait exister une autre théorie plus profonde et unifiée de la physiqueoù l'électron et le proton seraient les deux facettes d'un même objet. Du coup, onne s'étonnerait pas qu'ils aient la même charge. Donc, peut-être qu'en effet, sij'essaye de synthétiser les deux tendances qui ont été développées, pourrait-ondire (il s'agit d'une proposition) que s'agissant de coïncidences numériques, il y alieu simultanément de s'en étonner et de s'en méfier. Car en science, ce qui est del'ordre de la coïncidence n'est pas de l'ordre de la causalité, par définition. Or enscience, on raisonne dans l'ordre de la causalité et non pas dans l'ordre de lacoïncidence. Mais voilà que nous avons des coïncidences. Donc elles élèvent lequestionnement quant à l'explication et, de ce point de vue-là, c'est un champd'études intéressant. Mais au tout début, j'aurais souhaité que l'on opère desdistinctions de catégories dans l'ensemble des coïncidences exposées. Elles nesont pas toutes du même ordre. Par exemple, les coïncidences sur la valeur de lacharge d'une particule ne m'épatent guère ; en revanche, des contraintes quitouchent à des constantes fondamentales de la physique ou a des rapports de cesconstantes, me renvoient à d'autres interrogations. Pourquoi les constantesfondamentales de la physique ont-elles les valeurs qu'elles ont, et non pasd'autres valeurs ? Et là, cela nous renverrait effectivement aux lois, à mieuxrentrer dans la compréhension interne de ces lois qui nous renvoient à leur tour àquelques principes premiers de la nature. Car après tout, il ne semble pasémerger beaucoup de principes premiers pour l'intelligibilité de cette naturecomplexe. Il n'y a pas beaucoup de constantes, mais il y en a ! Il existe ici unsérieux motif d'étonnement, qu'il y ait des coïncidences numériques ou non, à vraidire.

Je notais, qu'en science, c'est bien dans l'ordre de l'autonomie del'immanence que je cherche à expliquer les choses. Et dans l'ordre de cetteimmanence, je me rends compte qu'il existe des principes de tendancesnaturelles, plutôt que pas de tendances du tout. Des lois de la physique sontpossibles. Et ces lois suivent des contraintes, vérifient des propriétés. C'est doncsur cette armature, déjà en soi source simple d'étonnement, que doivent se greffer(et peut-être se contenir) les tentatives de raisonnements quant a la significationdes dépendances des simulations d'univers aux valeurs des conditions initiales.

Pierre Perrier

En ce qui concerne l’argument from design, je voudrais dire que c’est unproblème rénové car on a fait des progrès fabuleux en design. Lorsque vousregardez le XVIIIe siècle, avec les connaissances scientifiques de l’époque, qu’ont-ils trouvé comme connaissance fabuleuse ? Celle de la fabrication des automates.Et le raisonnement qui consistait à s’émerveiller devant un automate qui tapaitsur un piano, c’était que c’était vraiment comme un homme. Avec du recul, on serend compte qu’il s’agissait d’un système complètement clos sur les capacités dedesign de l’époque, les capacités de conception au niveau de l’application de lascience, et que c’était en même temps un système complètement clos surl’épistémologie de la science. Il n’y avait aucun espoir de progrès dans ce schéma-

Page 89: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

17

là. Il est intéressant de voir qu’aujourd’hui, quand vous regardez quels sont lesautomates qui sont fabriqués en ce moment au cinéma, etc. vous allez trouver desmondes virtuels etc. Ce qui est intéressant dans l’argument from design est :« est-ce que notre capacité de conception a progressé de façon suffisamment largepour que notre appréciation du monde soit plus nuancée, plus fine, etc. ? ». Il estévident qu’elle a progressé de façon extraordinaire. Il n’y a aucun rapport entrece que l’on peut concevoir aujourd’hui et ce que l’on pouvait concevoir au XVIIIesiècle. Le raisonnement de Laplace était extrêmement fruste, c’était laconservation de la quantité de mouvement. L’argument from design reprendaujourd’hui de l’intérêt car on a conscience du fait que le monde dans lequel onvit est d’une complexité fabuleuse et que nous en comprenons certaines parties —pas toutes, bien entendu — mais de façon beaucoup plus intéressante et dans lesens où l’on sait les refabriquer : dans la conception de « produit ». Ce qui estl’expression de la maîtrise. La maîtrise se vérifie par le fait de la capacitéd’utiliser une loi physique, une avancée de compréhension, etc., en fabriquantquelque chose qui utilise cet objet-là, mais qui n’est pas l’objet naturel, même s’ils’en inspire. Il a sa propre cohérence. L’argument from design a repris du poil dela bête car on a maintenant un ensemble de façons de concevoir le monde qui estd’une telle richesse que l’on n’a plus d’illusions sur un certain nombre de hasards,de coïncidences : ce n’est pas parce que la petite fille tapait sur le piano et que çaressemblait de loin à un joueur de piano que l’on a compris l’homme qui joue aupiano. C’est un élément qui est important. Dans le design actuel, on ne fait passeulement des objets qui sont des objets déterministes, c’est-à-dire des automatesdu XVIIIe siècle, on fait des objets qui comprennent des systèmes asservis, etc…Je pense que ce qui est intéressant dans le problème de l’argument from design,c’est, quand on franchira cette étape, de commencer à s’intéresser à quels sont lestypes de systèmes asservis, les types d’éléments qui interviennent dans le monde.À ce moment-là, on va se poser une autre question philosophique très profondeque l’on ne s’est pas encore posée : « Est-ce que Dieu est quelqu’un qui fabriqueun automate du XVIIIe siècle (qui crée un monde initial, qui règle les constantes,etc.) et qui nous fabrique ainsi notre monde actuel car l’horloge continue àtourner — même si elle a factoriel n combinaisons et que ça conduit à unecomplexité sans nom et que l’on se justifie soi-même en disant que l’on est dansun monde complexe et que la conscience émerge du complexe — ou est-ce queDieu, derrière le monde dans lequel on vit, est un Dieu agissant, ce qui voudraitdire que l’on est, effectivement, dans un monde où Dieu agit ?. Si c’est le cas, c’estdoublement intéressant. Car ce n’est pas un monde du grand horloger, donc Dieupeut agir vis-à-vis de moi et ça m’intéresse, pour reprendre la question deLambert. Mais il y a aussi une deuxième chose qui est intéressante, c’est que s’ilen est ainsi cela veut dire que l’on devrait pouvoir traquer l’action de Dieu d’unefaçon beaucoup plus subtile que de chercher seulement le réglage des constantesinitiales. En particulier, on pourrait également la traquer bien mieux dans ledomaine de la vie qu’en faisant de l’aplatissement sur un message génétique. Ondoit pouvoir faire des choses plus astucieuses. Je pense que la notion d’argumentfrom design, si on la prend à l’ancienne façon, n’a aucun intérêt, ne présente riende nouveau. Mais que si on la prend dans le sens de notre capacité de faire dudesign, et donc qu’on l’attribue à Dieu comme on attribue à Dieu la capacité defaire une horloge, et donc qu’on donne à Dieu la capacité d’agir aujourd’hui, y

Page 90: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

18

compris pour moi, à ce moment-là, la jonction avec la question de Jean-FrançoisLambert devient beaucoup plus pertinente et intéressante.

Jean Staune

Je voudrais aussi aborder le thème de l’épistémologie. J’étais à un colloqueintitulé « Design and its critics », à l’Université du Wisconsin, où justement cesquestions ont été posées. Il y avait des spécialistes du design qui intervenaientpour dire si un objet était « designé » ou non. Et le grand débat de ce colloqueétait : « peut-on dire que c’est une hypothèse scientifique, que la vie a été« designed » par un « designer », créateur ou autre ? ». En gros, l’idée était qu’ilserait aussi loufoque d’interdire, en théorie, d’envisager l’idée d’un créateur enastrophysique ou en biologie, qu’il le serait en l’an 3 000, d’interdire à desspécialistes de l’histoire de l’informatique d’étudier les motivations desprogrammeurs qui ont inventé les premiers programmes informatiques dans lesannées 1960-2000. Parce qu’on pourrait très bien étudier l’informatique eninterdisant l’idée d’étudier la motivation d’un programmeur, en étudiantseulement les programmes, de la même façon que l’on peut interdire l’idée, auplan épistémologique (je ne parle pas de preuve ici), qu’il y a un créateur enastrophysique ou en biologie. Ce serait une absurdité au strict plan scientifique.Il y avait donc un grand débat aux Etats-Unis autour de ce thème : l’idée dudesigner, en science, est-elle une idée à explorer comme étant purementmétaphysique ou doit-on la considérer comme une hypothèse comme les autres ?Ce qui est très intéressant, c’est qu’un historien des sciences a démontré queDarwin se situait clairement dans un monde, où à son époque, l’idée du designerétait une idée scientifique comme une autre et que Darwin prétendait en avoirprouvé la fausseté. C’est donc une idée qui peut être réfutable et qui donc doit setrouver dans le champ scientifique.

Jean Bricmont

Je ne suis pas d'accord avec l'idée selon laquelle l'histoire d'un designerpuisse être scientifique ou puisse faire partie de la science, positivement ounégativement. Je ne suis pas du tout d'accord avec Dawkins lorsqu'il dit que c'està partir de 1859 que l'on a pu être athée. On pouvait déjà l'être au XVIIIe siècle.Ils se rendaient compte à l'époque de la vacuité de ce genre d'arguments. C'est-à-dire que vous pouvez dire qu'il y a un designer, mais à quoi ressemble-t-il ? Etpourquoi a-t-il fait le monde tel qu'il est et pas autrement ? Il aurait pu le fairemeilleur qu'il n'est. Est-ce une hypothèse que l'on peut tester d'une certaine façon?

Basarab Nicolescu

Si je regarde le principe anthropique avec le regard d'un scientifique, enessayant d'éliminer tout préjugé philosophique ou religieux, ce qui reste est àmon sens très intéressant est que c'est un principe d'auto-consistance qui met enrelation non seulement des nombres, mais aussi les lois. Donc, auto-consistancedes lois, auto-consistance de l'observation, auto-consistance des données. C'est un

Page 91: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

19

cas particulier d'un principe qu'on retrouve un peu partout dans la physique desparticules sans que ce soit très visible, parce que nous avons la déformation, nousphysiciens, de ne pas employer une terminologie très précise, tout en voulantintroduire toujours des mots nouveaux.

Pour moi, le principe anthropique est un cas particulier du Bootstrap, quiest un principe d'auto-consistance apparu pour la première fois en physique desparticules en 1960.

La version initiale du principe de Bootstrap veut dire auto-consistancedans la physique des interactions fortes. Cela a donné des résultats intéressantset le Bootstrap a dominé la scène scientifique pendant une dizaine d'années. Maisles complications de la formulation mathématique étaient très grandes, donc celan'a pas perduré. Le Bootstrap des interactions fortes est décédé juste avant dedonner naissance au modèle des cordes et le modèle des cordes a donné naissanceau modèle des supercordes.

Actuellement, le mot Bootstrap est très utilisé dans les théories unifiées.Lorsque l'on a une difficulté et que l'on ne sait pas comment s'en sortir, on évoquele principe de Bootstrap pour tirer quelque chose. Par exemple, Abdus Salam,lorsqu'il a formulé la théorie qui lui a valu le prix Nobel, a évoqué le principe deBootstrap. Actuellement dans la théorie M, qui est déjà un dépassement dessupercordes, on évoque souvent la mise en relation des lois de la physiquequantique avec les lois plus générales de groupes.

Dans notre inconscient de créateurs scientifiques, il y a toujours unedemande d'auto-consistance, liée à l'unicité de la solution des équations. C'estpourquoi je crois que le principe anthropique est un cas particulier du principe deBootstrap. C'est une proposition certes provocatrice. Sur le plan philosophique, leBootstrap est à son tour un cas particulier, tronqué, du principed'interdépendance universelle. Principe ridiculisé par Voltaire : tout dépend detout (et réciproquement !) donc on ne pourrait rien prédire. C'est faux car lorsquetout dépend du tout, on peut prédire quelque chose. Et c'est étonnant.

Page 92: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

1 / Physique et Réalité, une introduction à la question

Bernard d'Espagnat

Il est banal de dire que le développement de la physique durant les troisderniers siècles a fait évoluer nos idées et jusqu'aux concepts par lesquels nousles exprimons. Une remarque si générale ne surprendra, bien sûr, personne.C'est à mesure que nous prenons connaissance de l'ampleur de l'évolution enquestion que notre étonnement, peu à peu, perce, croît, prend consistance, et celajusqu'à revêtir, quand nous en savons assez long, la forme d'un aveu de gravedésorientation. En fin de compte, veux-je dire, nous nous voyons contraint dereconnaître que nombre de nos évidences en apparence les plus claires, de cellessur lesquelles nous fondons notre vue normale des choses, ne sont guère plus qued'utiles recettes mnémotechniques. Qu'en tant qu'évidences premières elles sontà mettre au rancart. Par quoi les remplacerons-nous ? Question difficile qui, jeme hâte de le dire, sera, dans ce fascicule, débattue mais non résolue. Que l'on serassure cependant. En dépit — si ce n'est à cause — de cela, la physique sedéveloppe de façon enrichissante. En tout cas, l'état de perplexité dans laquelleelle plonge, depuis un siècle, les gens qui la pratiquent et cherchent à penser nel'empêche aucunement d'avancer à pas de géants dans le domaine qui, au sens leplus strict, est le sien propre : celui du prédictif d'observations.

Pour expliciter l'évolution dont je viens de marquer toute l'étendue j'endistinguerai trois moments : l'échec du « réalisme proche » ou « mécanicismecartésien », celui, récent, de l'idée de localité, entraînant la crise de l'atomisme etenfin la grande question, posée d'une manière précise et insistante par laphysique elle-même, qui est celle de savoir ce à quoi se rapportent la physique etjusqu'à notre expérience de tous les jours. Cette dernière question estphilosophique et l’on ne s'étonnera donc pas qu'elle suscite différentes réponses,même en provenance de personnes compétentes en la matière. Je précise quecelle que je décrirai est la mienne propre et qu'elle n'engage que moi.

1- Échec du mécanicisme cartésien.

Sur ce premier point, je peux me permettre d'être bref. C'est certes à justetitre que l'on crédite Descartes d'avoir, l'un des tout premiers avec Galilée,introduit les mathématiques dans la physique et les autres sciences. Mais l'idéene lui est pas venue qu'il était possible de fonder sur elles des concepts physiquesentièrement nouveaux. La liste qu'il dresse (dans les Principes de la philosophie)des « notions claires et distinctes qui peuvent être en notre entendementtouchant les choses matérielles » ne comporte que celles « des figures, desgrandeurs et des mouvements, et des règles suivant lesquelles ces trois chosespeuvent être diversifiées l'une par l'autre », et il nous dit expressément qu'il faut« que toute la connaissance que les hommes peuvent avoir de la nature [soit]tirée de cela seul ». Cette conception, qu'on appelle le mécanicisme, revient, on levoit, à considérer que, du moins dans le domaine de « l'étendue », autrement dit

Page 93: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

de la matière, tout, en fin de compte, est descriptible au moyen des concepts de laliste en question, dont on remarque tout de suite que tous ses éléments sont desconcepts familiers, des concepts dont, depuis la nuit des temps, l'homme atoujours disposé.

Je note, en passant, que la plupart de nos collègues des autres sciences,biologie, géologie etc., en sont plus ou moins restés à ce stade : et cela simplementdu fait que le mécanicisme est pour eux, un très bon modèle — par exemple : ilrésulte de la mécanique quantique elle-même que les grosses molécules secomportent plus ou moins, en apparence, comme les pièces d'un jeu de lego. Maisnous, physiciens, nous savons depuis longtemps que notre science elle-mêmenous oblige à dépasser le cadre des concepts familiers. Pensons à Einstein, àl'équivalence masse-énergie, au tenseur de courbure etc. Sur le planexpérimental, pensons au processus de création de particules — ou de pairesparticules-antiparticules — dans les chocs à haute énergie. Le phénomène estobservé et, certes, la théorie le maîtrise d'une manière satisfaisante. Mais c'estun fait que les diverses manière que celle-ci a de le décrire — que ce soit par lathéorie des champs, par celle de la « mer de Dirac » ou par la « théorie despositrons » de Richard Feynman, — font toutes appel à des concepts nonfamiliers, débordant du cadre du mécanicisme.

2 - La réfutation du principe de localité.

Imaginons un psychanalyste de fantaisie ayant affaire à un très grandnombre de couples et qui opérerait comme suit. Il enverrait les hommes à la cave,les femmes au grenier, empêchant de ce fait, dès ce moment, toutecommunication au sein des couples, et il chargerait deux assistants d'interroger,l'un les premiers, l'autre les secondes. À tous, la même question serait posée etles assistants noteraient, chaque fois, nom de famille et réponse. Supposons quela question soit de celles dont la réponse — à donner par « oui » ou par « non » —n'est pas dictée de façon patente par les faits : opinion politique, par exemple.Imaginons, enfin, qu'à la fin de l'opération les assistants, en comparant leursnotes, constatent une corrélation parfaite entre les réponses données par lescouples : quel que soit le nom X, si M. X a répondu « oui », Mine X a répondu« oui » et si M. X a répondu « non », son épouse, elle aussi, a répondu « non ».Cette parfaite corrélation ne peut être le fruit du hasard, mais elle estsusceptible d'une explication évidente. Il suffit d'admettre que, dès avant leurséparation, mari et femme s'étaient, au sein de chaque couple, formés uneopinion commune concernant le sujet de la question posée.

En physique, on conçoit aisément des montages expérimentaux induisantdes phénomènes de corrélation à distance similaires, en apparence, à celui de cetapologue. On utilise à cet effet des sources de paires de particules, les deuxéléments de chacune des paires étant envoyés dans deux directions opposées etétant soumis, à grande distance, à des mesures. Si ces événements-mesures sontsuffisamment éloignés dans l'espace et proches dans le temps l'un de l'autre ons'estime fondé à juger que, tout comme dans l'apologue qu'on vient de voir, il n'y

Page 94: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

a entre eux aucune connexion causale directe, ce que l'on exprime en disant qu'un« principe de localité » est satisfait. Si, entre les résultats obtenus, on constateune corrélation, on tend donc à lui donner une explication toute simple, calquéesur celle qui marche si bien dans l'apologue : autrement dit, une explication,primo, réaliste — les particules et leurs propriétés sont conçues comme existantindépendamment de la connaissance qu'on peut en avoir — et, secondo, conforme,je le répète, au « principe de localité » — autrement dit, fondée sur unecorrélation supposée exister entre paramètres attachés aux particuleselles-mêmes, tout comme, dans l'apologue, l'explication est fondée sur l'identitédes opinions politiques des deux éléments d'un même couple. Et c'esteffectivement là une vue des choses que, jusqu'à il y a une trentaine d'années, unphilosophe eût encore pu, très légitimement, soutenir.

Mais aujourd'hui, comme Jean Bricmont nous l'expliquera grâce authéorème de Bell1 et aux expériences associées, telles celles faites à Orsay par legroupe d'Alain Aspect2, on sait de façon sûre que cette explication est fausse. Ou,pour dire la même chose en d'autres termes, on sait que, dans le domaine desidées fondamentales, toute théorie « réaliste, locale » entre nécessairement encontradiction avec certains faits expérimentaux observés. Comme notre visionclassique du monde s'inscrivait, précisément, dans le cadre d'une conception« réaliste » et « locale » (absence de relations causales directes entre événementssuffisamment éloignés dans l'espace et proches dans le temps, potentielsd'interaction diminuant tous avec la distance etc.), la découverte de John Bell estd'une importance considérable. En particulier, elle a pour conséquence degrandement restreindre la portée philosophique de la théorie atomique. Celle-ci,en effet, apparaissait comme l'exemple par excellence d'une théorie réaliste,locale et, en tant que telle, la non-localité la réfute. Elle demeure valable, bienentendu, mais seulement à titre de modèle utile : non pas une approximationmais plutôt une manière, pratique dans bien des cas, de symboliser ledéroulement des phénomènes. Notons enfin que la non-localité, quimanifestement serait très difficile à expliquer dans le cadre de la mécaniqueclassique, est, en revanche pleinement compatible avec la mécanique quantique ;de fait, son existence fut même suggérée par celle-ci, par le biais d'un formalismemathématique que je n'ai pas le temps de développer.

3- Le problème de l'objet de la physique.

La physique fournit les assises explicatives, sinon de l'ensemble de notreexpérience, du moins de toute celle qui concerne, en gros, le règne inanimé. Uneaffirmation aussi vague — quasiment une définition — est peu sujette àobjection, du moins aussi longtemps que l'on prend l'expression « notreexpérience » en son sens authentique, celui de quelque chose qui se rapporte ànous. Mais, bien entendu, de la physique — associée aux autres sciences — nous 1 - J.S.Bell, Physics 1, 195 (1964) ; « Speakable and Unspeakable » in Quantum Mechanics,Cambridge University Press, London, 1987.2 A. Aspect, P. Grangier et G. Roger, Physical Review Letters 49, p. 91 (1982) ; A. Aspect,J. Dalibard et G. Roger, Physical Review Letters 49, p. 1804 (1982).

Page 95: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

attendons, généralement, beaucoup plus. Nous espérons d'elle qu'elle nousdécrive le monde tel qu'il est ou tout au moins qu'elle vienne à notre secours dansnotre effort pour le connaître. Certes, nous savons déjà que cette description, ellene pourra pas la couler dans le moule du mécanicisme cartésien. Mais à l'heureactuelle nous sommes, en général intellectuellement disposés à écarter, si celas’avère nécessaire, les étroites limites de celui-ci. De fait, sous l'inspiration de lathéorie électromagnétique, de la relativité générale etc., il s'est développé, chezles physiciens en tout cas, une conception de la connaissance que, par référence àl'Einstein de l'âge mûr, on pourrait appeler l'einsteinisme. L'einsteinisme estl'idée que la réalité en soi est structurée et que, grâce aux mathématiques, quifournissent — enfin ! — les bons concepts, cette réalité est connaissable. Laprésentation suivante en a été donnée par Einstein lui-même.

Il y a quelque chose comme « l'état réel » d'un système physique, état qui existeobjectivement, indépendamment de toute observation ou mesure et qui peut en principeêtre décrit par les moyens d'expression de la physique [Quels moyens d'expression, etpar conséquent quels concepts fondamentaux sont à utiliser à cet égard (pointsmatériels, champs, moyens de détermination encore à inventer), ceci, à mon avis, estactuellement inconnu]. En raison de sa nature « métaphysique », cette thèseconcernant la réalité n'a pas le sens d'un énoncé clair en soi. Elle a seulement lecaractère d'un programme [...]. Elle est, il est vrai, arbitraire du point de vue logique.Mais la laisse-t-on choir que c'est alors une rude affaire que d'échapper au solipsisme.

Albert Einstein (dans Louis de Broglie, physicien et penseur, Albin Michel 1953(

Il est indéniable que cet einsteinisme représente déjà un très grandchangement — et un progrès immense — par rapport au mécanicisme cartésien.Je vais cependant tenter de montrer que l'einsteinisme n'est pas, malgré tout, le« fin mot de l'histoire » et qu'il faut, lui aussi, le dépasser. Pour cela j'ai troisarguments, de portées d'ailleurs assez inégales.

Premier argument. La sous-détermination de la théorie par l'expérience.

Considérons, par exemple, la théorie des particules. Durant ce dernierdemi-siècle, elle a suscité trois principales ébauches de représentations dumonde. Il s'agit, dans « l'ordre d'entrée en scène », de celles émanant de la théoriede la mer de Dirac, de la théorie quantique des champs et de la méthodologie deFeynman. Ces trois constructions théoriques prévoient les mêmes résultatsd'observation. Il n'existe aucune expérience susceptible de les départager. Aussi,dans l'exercice de notre travail de prédiction d'observations, sautons-nous fortallègrement, nous physiciens, de l'une à l'autre, considérant qu'il s'agit deversions plus ou moins générales mais équivalentes d'une même théoriefondamentale. Il n'en est pas moins vrai que, comme les personnes qui lesconnaissent peuvent immédiatement le constater, les représentations de laréalité suggérées par les concepts propres à chacune de ces théories sontextrêmement différentes et manifestement incompatibles.

Il y a là une difficulté pour l'einsteinisme car celui-ci a les caractères d'uneontologie. Comme il ressort clairement de la citation précédente, l'einsteinismevise à découvrir les vrais concepts : ceux qui correspondent vraiment à ce qui est.

Page 96: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

Or, on a ici trois descriptions que, même si chacun de nous a, sur la base de cequ'il fait dans son travail, ses préférences, il est impossible de discriminerobjectivement par un recours à l'expérience. C'est là un premier argument enfaveur d'un dépassement du réalisme physique, y compris sous sa forme« einsteinienne ».

Deuxième argument. L'objectivité faible

Cet argument se fonde sur la mécanique quantique et sur le rôle essentielque ses principes premiers jouent aujourd'hui en physique. Il repose sur le faitque, telle que nous l'enseignons et l'utilisons, la mécanique quantique est unethéorie à objectivité seulement « faible ».

Ce que j'entends par là requiert explication. La science est objective, nousen convenons tous. Mais quand on a affirmé cela on n'a pas encore tout dit car,même en science, le mot est utilisé en deux sens différents. Indéniablement, laplupart des assertions scientifiques ont une forme qui permet de les interpréter— à tort ou à raison — comme nous renseignant sur des attributs,éventuellement contingents, de la chose étudiée elle-même. Les énoncés du type« deux corps ayant telle et telle masse et situés à telle et telle distance l'un del'autre s'attirent selon telle et telle force » et, plus généralement, tous les énoncésfondamentaux de la physique classique — à l'exception, curieusement, de ceux dela mécanique statistique — sont de ce type. Je dis qu'ils sont « fortementobjectifs » pour les distinguer d'énoncés d'un type différent et qui pourtant sonteux aussi considérés comme objectifs. Il s'agit de ceux qu'on exprime sous laforme de règles universelles de prévision d'observation. De ceux-ci nous dironsqu'ils sont à objectivité seulement faible3. Contrairement à ceux à objectivitéforte ils nous mettent nous-mêmes en jeu, mais ils sont valables pour n'importequi, dans n'importe quelle situation, et c'est pour cela qu'ils sont objectifs.

Or, je le répète, certains des principes de la mécanique quantique que l'onconsidère comme fondamentaux sont à objectivité seulement faible dans le sensqui vient d'être dit. C'est en particulier le cas de la fameuse règle de Born, quidonne la probabilité d'obtenir un certain résultat quand on mesure telle ou tellegrandeur. En ce qui concerne, par exemple, les mesures de position, la règle enquestion nous informe que la quantité à considérer est Ψ(x, y, z)2, le carré dumodule de la fonction d'onde en un point (x, y, z). Ψ(x, y, z)2 est donc uneprobabilité. Mais probabilité de quoi ? En français, l'usage est de l'appeler« probabilité de présence » — sous-entendu au point (x, y, z) — mais l'expressionest trompeuse. Elle paraît signifier que, à chaque instant, les coordonnées x, y etz de la particule ont une valeur déterminée mais inconnue, peut-être mêmeinconnaissable. Or si cette idée était juste il serait difficile de ne pas en inférerque, dans une expérience de fentes de Young, chaque particule passe par unefente et une seule. Mais, d'autre part, il est bien clair qu'une telle description duphénomène est incompatible avec l'explication des franges fournie par lamécanique quantique « orthodoxe » — sans variables cachées explicitement

3 B. d’Espagnat, Le réel voilé, Fayard, 1994.

Page 97: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

introduites dans la théorie —, car cette explication se fonde sur l'idée que chaqueélément de l'entité composant le faisceau passe à la fois par les deux fentes.

L'expression anglaise pour qualifier le Ψ(x, y, z)2, « probability to befound » — probabilité d'être trouvée — est, par conséquent, dans la mécaniquequantique orthodoxe, la seule acceptable et doit être prise au sens littéral. Cettemécanique ne se soucie pas de nous faire savoir si une particule est à un certainmoment ici ou là, ou avec quelle probabilité elle s'y trouve. Contrairement à laphysique classique, elle ne postule même pas implicitement que la questionpossède un sens. Elle nous informe seulement de la probabilité que nous avons detrouver ici ou là la particule si nous la cherchons à cet endroit. Au reste, laconclusion est la même quelle que soit la grandeur physique à laquelle ons'intéresse, qu'elle soit ou non de la nature d'une position. En effet, le formalismecomporte une formule — que l'on peut appeler « règle de Born généralisée » —qui, étant données une grandeur physique et la liste des valeurs qu'on peut luitrouver, fournit la probabilité que nous avons d'obtenir, lors d'une mesure decette grandeur, telle de ces valeurs plutôt qu'une des autres. Et il se trouve quesi, naïvement, on voulait interpréter ceci en posant que la grandeur en questionavait déjà, avant toute mesure, la valeur en question — avec une certaineprobabilité — le formalisme quantique déboucherait sur des prédictions erronéesconcernant d'autres mesures possibles. On est ainsi conduit à considérer que cequi est fondamental dans la mécanique quantique « orthodoxe » ce n'est pas ledescriptif, c'est le prédictif d'observation.

Il est vrai que l'on pourrait se demander si cette conclusion n'est pasabusivement circonstancielle. Si elle ne procède pas tout simplement du fait —contingent — que les physiciens du début du XXe siècle qui mirent la mécaniquequantique sur pied se trouvaient être plus intéressés par les règles prédictivesd'observations que par la description de la réalité. Rappelons-nous, en effet, quel'avènement de la mécanique quantique a coïncidé avec la grande époque dupositivisme logique c’est-à-dire d'une philosophie qui soutenait que n'a de sensque l'observable. Certes les prédictions de la mécanique quantique n'ont jamaisété infirmées par les faits, mais, vu les fréquentes « sous-déterminations desthéories par l'expérience », on peut s'attendre à ce qu'il existe d'autres théoriesfournissant les mêmes prédictions et a priori il est concevable qu'il y en ait parmielles qui soient à la fois ontologiquement interprétables et scientifiquementconvaincantes, ce qui sauverait le réalisme physique, au moins dans sa version« einsteinienne ».

Alors, y en a-t-il ? C'est relativement à ce point que les participants à notregroupe ne nourrissent pas tous la même opinion. Et cela même si tous sontd'accord pour rejeter une présentation encore assez courante de la mécaniquequantique qui, laissant dans le vague les points délicats plus haut rapidementdécrits, donne à croire que le formalisme mathématique de cette mécaniqueserait, sans adjonctions ni modifications, susceptible d'une interprétationdescriptive, donc réaliste. En fait, la réponse à la question posée dépend de façoncruciale de ce qu'on entend par la condition, ci-dessus imposée à toute théorie,d'être « scientifiquement convaincante ». Si, pour les besoins de l'argumentation,

Page 98: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

on écarte momentanément cette condition, la réponse à la question ici posée estsans équivoque et elle est « oui ». Louis de Broglie, en 1927, a proposé une théorieà variables « cachées »4, plus tard redécouverte et grandement généralisée parDavid Bohm5, qui, effectivement, au moins dans le cadre non-relativiste,retrouve, en droit, toutes les prédictions observables de la mécanique quantique« orthodoxe », tout en étant objectivement interprétable. Jean Bricmont, tout àl'heure, nous en développera les mérites. En vérité, ceux-ci sont grands. En effet,comme on le verra, la théorie est entièrement cohérente et, du fait, précisément,qu'elle est ontologiquement interprétable, elle fournit des phénomènes uneexplication qui satisfait pleinement l'esprit. D'un autre côté, comme MichelBitbol le fera sans doute valoir, si l'explication en question nous séduit, c'estpeut-être pour une raison plus formelle qu'il ne semble au premier abord. Eneffet, si elle est bien du type de celles auxquelles le mécanicisme cartésien nous ahabitués, en revanche, contrairement à ces dernières, « les structuresdescriptives qu'elle greffe sur le formalisme prédictif de la mécanique quantiquesont [...] telles qu'elles impliquent d'elles-mêmes l'inaccessibilité àl'expérimentation »6. Par ailleurs, pour qu'une adhésion à la théorie dont il s'agitne soit pas une régression, il faudrait que les formes les plus élaborées de lathéorie dite « des particules » — je pense ici à la théorie des champs, à sesdéveloppements selon les techniques feynmaniennes, aux symétries internes, auxsupersymétries, aux supercordes etc. — soient reformulables dans son cadre, cequi peut apparaître comme un programme à l'ambition démesurée.

Sont-ce là des raisons de considérer que la théorie en question et d'autresmodèles similaires ne sont pas scientifiquement convaincantsÊ? Commebeaucoup, je le pense. Mais plusieurs des interventions qui suivront nouspermettront de nous former une vue plus détaillée et plus précise des tenants etaboutissants de cette question-là. Pour l'heure, disons seulement que, en toutcas, les données que je viens de rappeler révèlent ce qui, dans la mécaniquequantique, est véritablement solide. Elles montrent que ce n'est pas sasous-jacente ontologie — qui reste problématique, comme on le voit ! — mais bienl'ensemble de ses règles de prévision d'observations.

4- Une pseudo-ontologie.

Je le répète : la théorie de Louis de Broglie et David Bohm n'est, à mesyeux comme à ceux de la majorité des physiciens, pas scientifiquementconvaincante. Reste, encore une fois, qu'elle est pleinement cohérente. Elle viseexplicitement le réalisme — l'ontologiquement interprétable — et elle l'atteint. Àl'autre extrémité de l'éventail philosophique on trouve une autre théorieconceptuellement cohérente. C'est l'interprétation de Copenhague lorsque celle-ciest comprise comme assignant à la physique le rôle de décrire, non du tout laréalité, mais bien l'ensemble de l'expérience humaine communicable. D'un autrecôté, il est de fait qu'à tort ou à raison la plupart des physiciens restent attachés 4 L. de Broglie, Journal de Physique 5, p. 225 (1927).5 D.Bohm, Physical Review 85, p. 165, p. 180 (1952)6 M.Bitbol, L'aveuglante proximité du réel, Flammarion, 1998.

Page 99: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

à la visée réaliste. Comme, en même temps, ils sont tous impressionnés à justetitre par les succès de la mécanique quantique et qu'ils le furent longtemps par leprestige qui en rejaillissait sur les fondateurs de celle-ci, ils se sont trouvés, sanstoujours s'en apercevoir, dans une position conceptuelle fausse. Certains onttenté d'en sortir et en particulier beaucoup de physiciens dits fort improprement« des particules » — dont la discipline est entièrement fondée sur les grandesidées de Feynman — paraissent s'être construit, à partir de ces dernières, unesorte de pseudo-ontologie de remplacement. Je n'entrerai ici, bien sûr, dansaucun détail de calcul. Je dirai donc seulement qu'à mon avis il s'agit là, en faitd'une illusion. Selon moi, celle-ci se rattache directement à ce que je notais tout àl'heure concernant l'impropriété du terme « probabilité de présence » qui renvoiefaussement à une réalité en soi. Feynman lui-même a souvent souligné combienil est difficile d'interpréter la physique quantique en termes réalistes. Mais enmême temps il répugnait à discuter de tels sujets, qu'il semble avoir tenu pour« dangereusement » philosophiques. Aussi trouva-t-il une manière ingénieuse decourt-circuiter la difficulté7.

En bref, il introduisit la notion d’ « amplitude de probabilité d'arriver à unpoint donné B », et cela même quand B est un « point intermédiaire », où aucunemesure n'est faite et où aucune interaction n'a lieu. Certes, il insista sur le faitqu'il s'agissait là d'amplitudes et non de probabilités. Il n'empêche qu'en glissantdans son texte le verbe « arriver » il escamota le nœud conceptuellement essentielde l'affaire. En effet, ce verbe, comme le verbe « être », a une connotationéminemment réaliste. Lorsqu'il s'agit d'un « point intermédiaire », ou bienl'emploi de ce verbe signifie que la particule y arrive véritablement — ce qui,« amplitude » ou pas « amplitude », empêcherait les effets quantiques de seproduire — ou bien il n'a pas d'autre sens que celui de permettre la formulationrapide et imagée de ce qui n'est en fait qu'une pure et simple recette de calcul.Étant donné que les effets quantiques sont bien là, c'est cette seconde réponsequi, ici, est la bonne et l'on voit donc que la physique feynmanienne desparticules — tout comme la mécanique quantique dont elle n'altère en rien lesgrands principes — est à caractère essentiellement prédictif — j'entends :« prédictif d'observations » — et non descriptif On peut, cependant, ne pas êtrenettement conscient du fait que le verbe « arriver » est ici employé dans uneacception qui n'est pas l'acception courante, et ce fait peut amener à faussementcroire à la possibilité d'une interprétation réaliste de la physique des particules.C'est l'erreur ainsi engendrée que je désigne ici par l'expression « pseudo-ontologie ».

5- L'universalité quantique.

Il y a un siècle, la physique classique pouvait être considérée commefournissant une assise conceptuelle aux autres sciences et paraissait doncsusceptible de devenir, avec le temps, le fondement d'une explication complète del'ensemble des phénomènes. Mais cette idée a dû être abandonnée puisque laphysique classique a émis des prédictions fausses au sein de ce qui, en principe,

7 R.P.Feynman, Physical Review, 76, p. 749, p. 769 (1949)

Page 100: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

9

constituait le cœur même de son sujet, à savoir la structure intime de la matière.Par contraste, la mécanique quantique n'a, dans aucun domaine, jamais fournide prédictions observationnelles contredites par l'expérience, alors qu'elle est aucentre des disciplines les plus diverses. Il résulte de cela que, s'il est, aujourd'hui,une théorie universelle, celle-ci ne paraît pouvoir être que la mécaniquequantique ou, plus précisément, les lois générales de cette mécanique, autrementdit les grandes règles prédictives d'observation dont il vient d'être question.

Reste cependant à savoir si c'est bien le cas. Bien entendu, une conditionque toute théorie candidate au rôle de théorie universelle doit nécessairementremplir est celle de la généralité. De ce point de vue, la mécanique quantique estpleinement satisfaisante puisque, édifiée en premier lieu en tant que théorie desatomes et des molécules, elle s'est progressivement avérée pertinente dans tousles domaines de pointe de la physique. En faveur de son universalité, c'est là unargument de poids, mais qui, bien entendu, ne convainc pas à lui tout seul, Toutnaturellement nous sommes donc tentés de le compléter par un autre, quiconsiste tout simplement à remarquer que tout, dans le monde matériel, apparaîtcomme étant constitué d'atomes, que ceux-ci sont eux-mêmes constitués departicules et de champs, et que la théorie quantique est précisément celle quirend compte du comportement des particules et des champs. Dès lors, tend-on àconclure, cette théorie est nécessairement universelle, en ce sens, au moins, queses lois s'appliquent à tout.

En fait, la non-localité et l'objectivité faible de la mécanique quantique seconjuguent pour affaiblir la portée de cet argument ; la première en jetant lediscrédit sur l'idée même de constitution du réel en parties, la seconde en nousrévélant que de toute manière la physique ne nous fournit pas de véritablesdescriptions de « ce qui est ». En outre, la formulation « orthodoxe » de lamécanique quantique, celle de Bohr et de l'École de Copenhague, se fondaitexpressément sur la prise en considération des instruments de la mesure et surl'idée que, en dépit du fait qu'ils sont « constitués d'atomes », ceux-ci, du simplefait qu'ils sont utilisés comme instruments, doivent être traités par la mécaniqueclassique ; ce qui a conduit le grand physicien russe L. Landau — soviétique maisnéanmoins proche, en idées, de Bohr — à écrire sa phrase célèbre : « Lamécanique quantique a besoin de la physique classique pour sa propreformulation ».

Aujourd'hui, toutefois, nombre de physiciens quantiques voient les chosesdifféremment. Cela tient à ce que la communauté physicienne a depuis peuréalisé le rôle très important de la décohérence. Schématiquement, il s'agit du faitque, les niveaux d'énergie des systèmes macroscopiques étant extrêmementproches les uns des autres, d'infimes perturbations peuvent les affecter, de sorteque, dans des conditions normales, ces systèmes ne peuvent pas être considéréscomme vraiment isolés de leur environnement. Ils sont nécessairementenchevêtrés — au sens quantique — avec lui, ce qui fait qu'on ne sauraitattribuer à chacun d'eux une fonction d'onde et que, même, on ne peut, en touterigueur, penser chacun comme constituant une entité — une sorte d' « être en

Page 101: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

10

soi » — individualisée8. D'une certaine manière c'est nous qui, sous l'effet denotre équipement sensori-moteur et conceptuel, les séparons intellectuellementet pragmatiquement de l'environnement en question et faisons abstraction decelui-ci. Or cette opération d'abstraction, faite instinctivement dans la viecourante, nous savons maintenant l'effectuer, dans le cadre de la mécaniquequantique, par le calcul, et en tirer les conséquences. Il se trouve que celles-cisont pertinentes relativement à la question qui nous intéresse.

En effet on a pu montrer — je pense ici, en particulier, à certains travauxde Roland Omnès9 — qu'en ce qui concerne les systèmes macroscopiques setrouvant dans des conditions non exceptionnelles ces conséquences sont que lesprévisions observationnelles concernant ces systèmes — prévisions qu'on obtientd'habitude en se servant de la mécanique classique — peuvent se déduire dans ledétail des règles prévisionnelles de la mécanique quantique. En d'autres termes,il a été montré que, des règles de prédiction quantiques conçues commeuniverselles, découle l'apparence d'un monde classique. En faveur del'universalité de la mécanique quantique c'est là, en définitive, un argument d'untrès grand poids, même si, comme vous le voyez, la décohérence ne fournitaucunement une justification de l'ontologie classique, celle du réalisme naïf, quiconsidère les objets comme des choses en soi. C'est pourquoi je parled’ « apparences ». Mais des apparences valables pour tous ne sont elles pas, enscience, tout aussi bonnes — voire meilleures ! — que des « réalités en soi » ?

Notons enfin que la notion de décohérence et la thèse de l'universalité deslois quantiques reçoivent l'une et l'autre un appui remarquable en provenancedes expériences du groupe Haroche10. Très grosso modo, on peut dire, en effet,que ces physiciens ont opéré la déconnexion temporaire d'un objet macroscopique— en fait : mésoscopique — et de son environnement, ont constaté que l'objetjouit alors de propriétés typiquement quantiques, et ont observé qu'en un tempstrès court, mais fini et même mesurable, il reprend son aspect « classique », saconnexion avec l'environnement s'étant d'elle-même rétablie. Il est clair que si lemonde — ou notre appréhension de celui-ci — était régi par deux systèmesdistincts de lois fondamentales, l'un, quantique, s'appliquant aux systèmesmicroscopiques et l'autre, classique, aux systèmes macroscopiques ou tout aumoins à la très grande majorité de ceux-ci, ces résultats ne seraient guèrecompréhensibles. Cette expérience constitue donc un argument difficilementcontournable, me semble-t-il, en faveur de l'idée que les lois prédictivesd'observation qui constituent le noyau dur de la mécanique quantique sontuniverselles.

L'ensemble des données que j'ai rappelées me conduit à des conclusionsbien définies que je présenterai brièvement comme suit. Il est clair qu'au cours de

8 H.Zeh, Foundations of Physics, 3, p. 109 (1973) ; D.Giulini, E.Joos, C.Kiefer, J.Kupsch,I.-O.Stamatescu, et H.D.Zeh, Decoherence and the Appearance of a Classical World in QuantumTheory. Springer Verlag, 19969 R.Omnès, The Interpretation of Quantum Mechanics, Princeton University Press, 1994.10 M.Brune, E.Hagley, J.Dreyer, X.Maîître, A.Mali, C.Wunderlich, J.M.Raimond et S.Haroche,Physical Review Letters, 77, 4887 (1996).

Page 102: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

11

leur histoire — ou, disons plutôt, de leur préhistoire — les hommes se sontconstruit des concepts utiles à leur existence. Et il est clair aussi qu'une desquestions « brûlantes » qui se posent à qui cherche la vérité est : « devons-nousjuger que ces concepts correspondent au réel — à ce qui « vraiment est » — ouqu'ils sont, tout au moins, une bonne approximation du réel ? »

Le fameux principe « ça marche, donc c'est vrai » suggère puissamment laréponse « oui ». Mais nous savons que ce principe n'a rien d'une règle absolue etmême que, en science, il est souvent mis en défaut. En fait, il me sembleindéniable que, compte tenu des données en question, la réponse, bien aucontraire, est nettement « non ». On l'a vu : si vraiment il s'agit d'approcher leréel — « en soi », « ultime », qualifions-le comme on voudra —, les conceptsfamiliers, ceux du mécanicisme, ne fournissent même pas une bonneapproximation ; et, contrairement aux espérances einsteiniennes, ceux qu'onforge à partir des mathématiques, pour féconds qu'ils soient, ne sont pas, eux nonplus, qualifiés pour tenir ce rôle. C'est pourquoi, en une sorte de retour — maisimpliquant d'essentielles modifications — au mythe platonicien de la caverne, jeparle, pour ma part, de « réel voilé ».

6- Coup d'œil sur la suite

D'un autre côté, non-localité et décohérence sont des notions récentes. Il estnormal que leurs interprétations soulèvent encore des difficultés et que leursimplications suscitent des débats. Des débats qui, au reste, ne font qu'alimenterdes controverses plus générales portant sur les rapports entre physiquequantique et réalité et qui débouchent quasi inévitablement sur des prises depositions relatives à cette notion elle-même.

Les communications qui suivent, même si elles ne couvrent pas l'ensembledes points de vue, en donneront une vue instructive. En gros, François Lurçat,interprétant Niels Bohr dans une perspective husserlienne, y défend l'idéed’ « ontologies régionales ». Basarab Nicolescu y prône celle de « niveaux deréalité » comprise conformément à un moment de la pensée de Heisenberg. JeanBricmont, plus « réaliste » encore que ces deux physiciens, estime, lui, comme lepensait aussi John Bell, que le seul but valable à assigner à la physique estd'expliquer notre expérience en construisant une théorie ontologiquementinterprétable, telle celle de Bohm, et cela, en en acceptant l'étrangeté, qu'il prendmême soin d'expliciter. Dans l'esprit de l'approche pragmatico-transcendentalequ'il a exposée par ailleurs, Michel Bitbol lui objecte que de telles théories sontvides de contenu empirique. Enfin, se fondant sur la mécanique quantique,Hervé Zwirn nous donne des raisons de conclure que le vrai but — le butaccessible — de la physique est de rendre compte des éléments de l'expériencehumaine possible ; et il nous indique comment faire en sorte que la décohérenceserve au mieux à cette fin.

Tel est le surprenant — mais fascinant — panorama que dessinent lestextes qui suivent. Ce serait une démission que d'y voir un encouragement à un

Page 103: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

12

facile relativisme. Ces positions diverses — certaines, même, opposées, — sonttoutes étayées par de valables arguments, dont aucun n'a recours à unquelconque ésotérisme. Il faut donc qu'il y en ait une qui soit plus robuste que lesautres... et, pour ma part, on l'a peut-être deviné, j'ai mon idée à ce sujet. Il siedtoutefois que, dans ce fascicule, échanges et débats aient, si l'on ose dire, le« dernier mot ».

Page 104: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

2.1- Régions ontologiques en physique quantique

François Lurçat

Il s’agira dans cette intervention de régions ontologiques ; dans des régionsontologiques différentes, le verbe être n’a pas la même signification. Exemple : ceverbe n’a pas la même signification dans les phrases « le parapluie de Paul estdans cette pièce » et « le nombre quatre est pair ».

Au début du XXe siècle la physique était unifiée et triomphante :mécanique, amendée par la relativité ; électromagnétisme ; théorie des électronsde Lorentz. On pouvait espérer que les découvertes récentes (spectres atomiques,électron, rayons X, radioactivité...) entreraient dans les cadres déjà établis. Iln’en fut rien : les expériences de Rutherford amenèrent Bohr à formuler en 1913une théorie de l’atome planétaire qui brisa — peut-être pour toujours, là est laquestion — l’unité de la physique. Rien ne permet de mieux se rendre compte desimplications de l’atome de Bohr pour le problème qui nous occupe aujourd’hui queles doléances de Lorentz, dont il faisait part en 1924 au jeune physiciensoviétique Joffé :

« Aujourd’hui, exposant la théorie électromagnétique, j’affirme qu’un électron sur uneorbite rayonne de l’énergie, et demain, dans le même amphithéâtre, je dis quel’électron ne perd pas d’énergie en tournant autour du noyau. Où donc est la vérité, sion peut affirmer deux choses qui s’excluent mutuellement ? D’une façon générale,sommes-nous capables de connaître la vérité, et cela a-t-il un sens de s’occuper descience ? » [1]

Tout est dit, ou presque, dans cette plainte sur l’unité perdue. Bohr a penséqu’il y avait un abîme entre la physique classique et la nouvelle physique desatomes, et il s’est placé hardiment de l’autre côté de l’abîme [2]. L’effort del’ancienne théorie des quanta, édifiée entre 1913 et 1925 autour du principe decorrespondance, consista à utiliser les lois de l’ancienne physique pour étudier lesphénomènes atomiques. Mais en 1925, Max Born et Heisenberg, avec l’aide deJordan, édifient la mécanique quantique, qui va voler de succès en succès. Au lieudu tâtonnement et de la « divination systématique » de l’ancienne théorie, on amaintenant un formalisme rigoureux et cohérent. On s’aperçoit bientôt qu’ilcontient la physique classique comme cas limite. La douloureuse scission n’est-elle plus désormais qu’un mauvais souvenir ?

Il y a deux réponses possibles. Beaucoup de théoriciens, ceux en particulierqui privilégient l’étude de la structure mathématique de la théorie, pensent qu’eneffet le formalisme quantique relègue l’ancienne théorie des quanta au musée etrétablit l’unité de la physique. D’autres théoriciens, et la plupart desexpérimentateurs, considèrent l’existence de deux régions — classique etquantique — comme une évidence ; ce sont d’ailleurs eux, souvent, qui ont été lesartisans du récent renouveau de l’ancienne théorie des quanta [3]. Examinons lesdeux positions.

Page 105: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

Il y a quelque temps, je racontais à deux jeunes expérimentateurs enphysique des particules que, selon beaucoup de théoriciens, les appareils dont ilsse servent doivent être, en toute rigueur, décrits par la mécanique quantique.Mes interlocuteurs éclatèrent de rire. La signification théorique de ce rire est lasuivante : la description quantique d’un appareillage qui emplit un grand hall etpèse beaucoup de tonnes est une possibilité de principe qui n’est jamais mise endoute, mais qui n’est jamais actualisée non plus. De même les spécialistes de lamécanique céleste qui étudient les mouvements des planètes et de leurs satellitesne contestent pas, que je sache, qu’on puisse écrire l’équation de Schrödinger dusystème solaire, seulement, en fait, personne ne l’écrit parce qu’elle ne sert àrien.

Nous trouvons alors deux attitudes : le rationaliste, héritier de Pythagore,de Descartes et de Galilée, d’Einstein et de Heisenberg, de John Bell aussi,déclare qu’il n’y a pas de quoi rire et que les raisonnements qui ne sont valablesque « pour tous les buts pratiques » — « for all practical purposes », que Bellabrégeait ironiquement en FAPP [4] —, ces raisonnements n’ont pas de valeurthéorique. L’empiriste, héritier de Bacon et de Newton, de Bohr et de Feynman,rit avec mes deux interlocuteurs et dit que le but de la physique est de décrire etd’expliquer des phénomènes réels, ou de formuler leurs lois ; comme ils sontconnus par l’expérience avec une certaine incertitude, une théorie qui en rendcompte avec une approximation du même ordre est parfaitement satisfaisante.

Le rationaliste, dans le cas qui nous occupe, c’est d’abord von Neumann.Dans son grand traité de 1932 il explique que la mécanique quantique rendobsolètes toutes les considérations sur les ondes et les particules, qui onttellement troublé les physiciens depuis le début du siècle ; elle se définit en effetpar un formalisme — lié à l’espace de Hilbert en l’occurrence — et des règles decorrespondance entre ce formalisme et les résultats d’expériences. Plus tard legrand mathématicien raffinera sa position, en définissant avec Birkhoff unelogique quantique.

Mais, pour ce qui nous concerne ici, le plus important est que, pour vonNeumann, la physique classique est désormais périmée en tant que théoriefondamentale. Chacun s’accorde, en effet, pour constater que le formalisme de laphysique classique peut s’obtenir à partir de celui de la mécanique quantiquecomme cas limite, quand la constante de Planck tend vers zéro. Bien sûr cepassage à la limite pose des problèmes mathématiques difficiles, mais quel quesoit leur intérêt, on ne peut guère douter du résultat. Mais voici qui prêtedavantage à controverse. Pour von Neumann, cette propriété mathématiquesuffit à changer radicalement le statut de la physique classique : elle n’est plusdésormais qu’une théorie d’ingénieur, commode quand on s’occupe de problèmesmacroscopiques, mais qui a perdu la signification fondamentale qu’on luiattribuait depuis Newton et Maxwell. Il n’y a pas deux régions, une régionclassique et une région quantique : il y a une théorie unique, la mécaniquequantique, exactement valable pour tous les phénomènes physiques. Et puis il ya des raisons de commodité, qui, certes, justifient l’usage des concepts classiques

Page 106: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

dans certains cas, mais sans que cela puisse leur faire retrouver le statut qu’ilsont désormais perdu.

Le point de vue de Bohr est radicalement différent. Dans son exposé deseptembre 1927 au congrès de Côme [5], il présente une interprétation de lamécanique quantique dont la pertinence et la profondeur ont été et sont, à monavis, radicalement sous-estimées. Il caractérise la théorie quantique par le faitqu’elle « apporte une limitation essentielle aux concepts de la physique classiquedans leur application aux phénomènes atomiques ». Ce qui implique évidemmentque les concepts classiques, bien que leur pertinence soit limitée quand il s’agitde phénomènes atomiques, conservent cependant une certaine validité dans cedomaine.

Mais cela ne signifie pas que Bohr veuille rétablir l’unité perdue. Pour luila spécificité des phénomènes atomiques est exprimée par le postulat quantique,qui attribue aux processus atomiques un caractère d’indivisibilité « complètementétranger aux théories classiques, et caractérisé par le quantum d’action dePlanck ». Plus précisément, le postulat quantique énonce que toute observationdes processus atomiques entraîne une interaction finie avec l’instrumentd’observation : et Bohr ajoute ceci, qui est ce qui nous importe le plusaujourd’hui : « on ne peut par conséquent attribuer ni aux phénomènes ni àl’instrument d’observation une réalité physique autonome au sens ordinaire dumot ». Par la suite, Bohr insiste avec force sur le fait que le dispositifexpérimental doit être décrit en termes de concepts classiques.

Tout cela signifie — j’abandonne ici le langage de Bohr, sinon ses idées —que les objets atomiques appartiennent à une région ontologique nouvelle,inconnue de la physique classique. La physique classique permettait d’analyserun système physique en autant de composantes que nécessaires ; cescomposantes étaient en général en interaction, mais leurs définitions respectivesétaient parfaitement indépendantes les unes des autres.

Si j’étudie le système solaire, chacun des corps qui le composent est définiindépendamment des autres ; sa position et sa vitesse sont définies en elles-mêmes ; si leur mesure doit faire intervenir d’autres corps, c’est uniquement pourdéfinir un système de référence. Au contraire, l’électron qui traverse unmicroscope électronique, ou encore le photon qui traverse un dispositifinterférentiel, ne peut pas être défini indépendamment du dispositifexpérimental qui permet leur préparation et leur observation. On ne peut pasposer une question sur l’électron, demander par exemple quelle est sa position ousa quantité de mouvement à un instant donné, sans préciser le dispositifexpérimental qui permettra de répondre à cette question ; d’où découle, commeon sait, la solution des fameux paradoxes de la mécanique quantique.

L’existence de deux régions ontologiques au sein du monde de la physiqueest très mal comprise et très mal acceptée par les physiciens. Un article récent [6]de van Kampen montre comment la mécanique quantique implique que les

Page 107: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

systèmes macroscopiques obéissent aux lois classiques. Il montre du même couppourquoi la description quantique d’un système macroscopique n’est paspertinente ; il remarque par exemple que si on considère un millimètre cube d’aircomme un système quantique, la distance moyenne entre deux niveaux d’énergieest de l’ordre de10-1017 — il est inutile de préciser l’unité ! La notion de vecteurd’état du millimètre cube d’air est donc totalement spéculative, elle ne correspondà rien de décelable par l’expérience.

Mais van Kampen reproche à Bohr de donner l’impression qu’il y a unroyaume quantique au niveau atomique, et un royaume classique au niveaumacroscopique. Quel mal y a-t-il à cela ? En fait, van Kampen sous-entend que,pour Bohr, la mécanique quantique ne serait pas vraie dans le « royaumeclassique ». Or le problème n’est pas qu’elle serait fausse dans le domainemacroscopique, mais qu’elle n’est pas pertinente — je laisse de côté les SQUIDset autres systèmes réputés quantiques macroscopiques ; si nous parvenons àcomprendre les systèmes ordinaires, il sera toujours temps de passer à l’étude desSQUIDs.

Deux remarques pour conclure. D’abord, l’insistance de Bohr sur lavalidité, certes limitée, des concepts classiques dans le domaine quantique aparfois été considérée, en son temps, comme un signe d’archaïsme, de refus de lamodernité. Il apparaît aujourd’hui que, loin d’être en retard sur le progrès de lathéorie quantique, Bohr était en avance. Depuis l’avènement du chaos, lesapproximations semi-classiques ont acquis une dignité théorique nouvelle. Lestrajectoires périodiques — généralisation des orbites de Bohr de l’atomed’hydrogène — permettent de s’orienter dans le maquis des valeurs propres d’unsystème quantique comme l’atome d’hydrogène dans un champ magnétique fort,ou l’atome d’hélium [3d]. Il est de moins en moins raisonnable de vouloir exclurepurement et simplement les concepts classiques de la théorie quantiquefondamentale, en les réduisant au rôle de concepts d’ingénieur. Les conceptsclassiques sont nécessaires, selon l’interprétation bohrienne de la mécaniquequantique, pour décrire l’environnement macroscopique d’un objet quantique,environnement dont il n’est pas séparable en principe. Ils sont nécessaires pourdéfinir nombre de concepts quantiques : diffraction, effet tunnel [3d]. Enfin,comme le disent Heller et Tomsovic [3d], ils sont nécessaires si l’on veutcomprendre nombre de phénomènes et de propriétés dans les domaines atomique,moléculaire, nucléaire, mésoscopique. Je dis pour comprendre, et non pourcalculer : on peut souvent résoudre numériquement des équations deSchrödinger, obtenant des résultats en accord avec l’expérience. Mais comme ledisait une fois Wigner, cité par les mêmes auteurs, « c’est très beau de savoir quel’ordinateur comprend le problème, mais j’aimerais le comprendre moi aussi ».Les concepts classiques sont plus vivants que jamais, ils ont trouvé de nouveauxchamps d’application. L’idée d’une théorie purement quantique, qui ferait desconcepts classiques des concepts dérivés ou même superflus, ne correspond pasau contenu physique de la théorie quantique. L’idée d’une région classique,domaine où les concepts classiques sont valables sans restriction, n’est donc passeulement une évidence pratique, elle a aussi des lettres de noblesse théorique deplus en plus convaincantes.

Page 108: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

D’autre part, la question de savoir si la physique quantique définit unenouvelle région ontologique, distincte de la région classique, a des implicationsmétaphysiques intéressantes. La physique classique, telle qu’elle a été fondée parGalilée, s’écarte du sens commun en ce sens qu’elle fait abstraction des « qualitéssecondes » des objets physiques pour ne retenir que leurs formes et leursmouvements. Mais, d’autre part, elle est proche du sens commun en ce sensqu’elle permet de visualiser les mouvements qu’elle étudie, chaque objet ayant àchaque instant une position définie. Il y a donc un lien organique entre laphysique classique et le sens commun. On peut dire que le physicien classique estconvaincu de la réalité du monde sensible, ou, du moins, que, s’il doute de cetteréalité, c’est pour des raisons qui lui sont propres et qui n’ont rien à voir avec sascience.

Bohr fait dépendre l’interprétation de la mécanique quantique de laphysique classique. Cela signifie que, pour lui, la mécanique quantique ne remetpas en cause la réalité du monde sensible. Les objets atomiques ont une réalitéphysique non autonome, mais liée à celle de leur environnement macroscopique ;cela définit pour eux un mode d’être particulier, mais cela ne les prive pas deréalité. Et cela ne prive pas davantage de réalité l’environnement macroscopique— l’appareil de mesure. Les appareils sont des objets en métal, en verre, etc. ;leur description par la physique classique est un raffinement du point de vue dusens commun, qui ne contredit nullement celui-ci. C’est pourquoi Bohr explique[7] que décrire les expériences en termes de concepts classiques permet d’encommuniquer à autrui le dispositif et les résultats. C’est pourquoi aussi, dans lecompte rendu de son débat avec Einstein, il dessine les appareils dans un styleréaliste et non dans le style schématique usuel des articles de physique [8].« Niels Bohr, écrivait Max Born [9], a toujours insisté sur le fait qu’on ne peutdécrire aucune expérience réelle sans utiliser le langage ordinaire et les conceptsdu réalisme naïf ». En un mot, Bohr était convaincu de la réalité du mondesensible, et sa conception de la mécanique quantique avait pour fondementmétaphysique cette conviction.

En revanche, la réalité du monde sensible devient problématique si onadopte le point de vue des partisans d’une région ontologique unique, despartisans du « tout quantique » comme von Neumann ou aujourd’hui RolandOmnès. La réalité de base, pour eux, n’est pas le monde sensible, mais l’espace deHilbert, à partir duquel ils s’efforcent — c’est aujourd’hui l’effort d’Omnès — dedéduire le sens commun et donc le monde sensible. De même, Heisenberg pensaitque la réalité des objets quantiques se dissolvait « dans la transparente clarté desmathématiques ».

Le physicien convaincu de la réalité du monde sensible, d’où les objetsphysiques sont extraits par chirurgie, ne craint pas de faire des approximations ;elles ne remettent pas en cause la réalité et n’ont donc rien de scandaleux. Detoute manière, pour lui, la correspondance entre le monde sensible et lesmathématiques est approximative par essence.

Page 109: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

En revanche, le théoricien, qui doit tout déduire d’un schémamathématique, y compris le monde sensible, sent reposer sur ses épaules laresponsabilité du démiurge. On peut comprendre alors son horreur desapproximations : la correspondance entre le monde sensible et les mathématiquesest pour lui — comme pour son ancêtre Pythagore — une identité. La moindreinexactitude peut être la paille qui fera avorter le monde sensible ou qui aboutiraà un autre monde.

Références

[1] A.F. Joffé, Vstretchi s fizikami (Rencontres avec des physiciens), Moscou,1960.

[2] « We thus see that, contrary to Planck and Einstein, Bohr did not try tobridge the abyss between classical and quantum physics, but from the verybeginning of his work, searched for a scheme of quantum conceptions whichwould form a system just as coherent, on the one side of the abyss, as that of theclassical notions on the other side of the abyss ». Max Jammer, The conceptualdevelopment of quantum mechanics, Mc Graw-Hill, New York, 1966, p.88.

[3a] J.H. Van Vleck, D.L. Huber, « Absorption, emission and linebreadths: asemihistorical perspective », Reviews of Modern Physics 49 (1977), pp. 939-959.[3b] W.H. Miller, « Semiclassical methods in chemical physics », Science 233(1986), pp. 171-177.[3c] T. Uzer, D. Farrelly, J.A. Milligan, P.E. Raines, J.P. Skelton, « Celestialmechanics on a microscopic scale », Science 253 (1991), pp. 42-48.[3d] E.J. Heller, S. Tomsovic, « Postmodern quantum mechanics », PhysicsToday, juillet 1993, pp. 38-46.[3e] Martin C. Gutzwiller, Chaos in classical and quantum mechanics, Springer,New York, 1990.

[4] J. S. Bell, Speakable and unspeakable in quantum mechanics, CambridgeUniversity Press, 1987. Le sigle FAPP ne se trouve peut-être pas dans ce livre,mais je suis certain de l’avoir lu sous la plume de Bell.

[5] N. Bohr, La théorie atomique et la description des phénomènes, Gauthier-Villars, Paris, 1932. Réédité par Jacques Gabay, Sceaux, 1993. (Diffusion-distribution: Jacques Gabay, 151 bis rue Saint-Jacques, 75005 Paris).

[6] N.G. van Kampen, « Macroscopic systems in quantum mechanics », Physica A194 (1993), pp. 542-550.

[7] N. Bohr, « Discussion avec Einstein sur des problèmes épistémologiques de laphysique atomique », dans Physique atomique et connaissance humaine, coll.“Folio Essais”, Gallimard, 1991.

[8] M. Born, Physics in my generation, Pergamon, Londres, 1956, p. 153.

Page 110: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

2.2- Niveaux de Réalité

Basarab Nicolescu

Je tiens à préciser, tout d’abord, que je ne parle pas ici exclusivement entant que physicien quantique. Un physicien quantique veut tout d’abord utiliserson formalisme, sa méthodologie et sa technique. Je parle en tant que physicien,certes, mais un physicien qui essaye de réfléchir sur ce qu’il fait. Lorsque noussommes dans le domaine de la réflexion, il est honnête de dire que nous sortonsde notre domaine proprement dit, c’est-à-dire le domaine technique.

Deuxième point que je souhaiterais préciser : un point d’histoire. J’aiintroduit la notion de niveaux de réalité dans une série d’articles en 1982-1984parce que je ne comprenais pas d’où venait le frein à l’unification entre la théoriede la relativité et la mécanique quantique. Tel a été le point de départ de maréflexion. Ensuite, durant un séjour à Berkeley — je travaillais à l’époque dans ledomaine du bootstrap topologique avec Geoffrey Chew, qui est aussi un hommede réflexion — les discussions que j’ai eues avec lui et avec d'autres collèguesm’ont beaucoup stimulé pour arriver à cette formulation des niveaux de réalité.J’étais également stimulé par la notion de « réel voilé » de Monsieur d’Espagnat,qui est, à mon sens, un des concepts philosophiques les plus intéressants dusiècle passé. La formulation du concept de « niveaux de Réalité » a été reprisedans mon livre Nous, la particule et le monde (Le Mail, 1985). Puis, au fil desannées, j’ai développé cette idée dans plusieurs écrits : dans des livres, dans desarticles et dans des revues philosophiques.

Ensuite, est survenue la première surprise, celle de Nottale. LaurentNottale, en se posant la même question — c’est-à-dire : « d’où vient l'apparenteimpossibilité d’unification entre la théorie de la relativité et la mécaniquequantique ? » — est arrivé à la même conclusion que moi. Nottale ne se proposepas d’établir des passerelles entre les deux théories de la relativité et de lamécanique quantique. Il veut une théorie qui ne soit ni la physique classique nila physique quantique, une théorie tierce, où l'on retrouve, comme casparticuliers, à certaines échelles, la mécanique quantique et la mécaniqueclassique. Il s’agit d’un programme, bien entendu, et non d’une théorie parvenueà son aboutissement. J'ai retrouvé chez lui l’idée de niveaux, d’une manière trèssubtile, c’est-à-dire par les fractales et l’espace-temps, qui doit être lui-mêmesoumis à la relativisation d’échelle.

La deuxième surprise, est arrivée, il y a deux ans, lorsque j’ai découvertl'ouvrage de Werner Heisenberg, Philosophie. Le manuscrit de 1942 (Le Seuil,Paris, 1998, traduction de l'allemand et introduction par Catherine Chevalley).Ce livre a été pour moi un éblouissement parce que j’y retrouvais la même idée deniveaux de réalité. Le livre de Heisenberg a eu une histoire étonnante : il a étéécrit en 1942, publié en allemand en 1984 (donc je n’ai pas pu prendreconnaissance de ce manuscrit, ne lisant pas l’allemand) et n’a été traduit enfrançais qu’en 1998.

Page 111: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

Troisième point que je souhaiterais préciser : le point de vue que j’exprimeici est en accord total avec celui des fondateurs de la mécanique quantique :Heisenberg, Pauli et Bohr. Je parle du Bohr de la correspondance avec les autresphysiciens et non du Bohr des articles scientifiques. De même, je parle du Paulitel qu'il se révèle dans ses écrits philosophiques (Wolfgang Pauli, Writings onPhysics and Philosophy, Springer-Verlag, Berlin-Heidelberg, Germany, 1994,édition dirigée et commentée par Charles P. Enz et Karl von Meyenn, traduit parRobert Schlapp), mais aussi de son étonnante correspondance avec Jung(Wolfgang Pauli et Carl Gustav Jung, Correspondance 1932-1958, Albin Michel,Paris, Coll. « Sciences », 2000, édition dirigée et commentée par C. A. Meier,introduction par Michel Cazenave, traduction de l'allemand par FrançoisePérigaut).

Le plus important, dans mon intervention, concerne Heisenberg et ses écritset c’est ce par quoi je vais commencer avant d’en venir à mes propres idées et à lacorrespondance entre mes idées et celles d’Heisenberg.

Quelle est l’idée fondamentale de ce livre, Le manuscrit de 1942, quimériterait qu’on en débatte d’une manière plus profonde ? Comme le ditCatherine Chevalley dans son admirable introduction au livre, l’axe de la penséephilosophique de Heisenberg est constitué de « deux principes directeurs : lepremier est celui de la division en niveaux de réalité, correspondant à différentsmodes d’objectivation en fonction de l’incidence du processus de connaissance, etle second est celui de l’effacement progressif du rôle joué par les concepts d’espaceet de temps ordinaires... »

Heisenberg parle de trois régions de réalité. Premier niveau de réalité : étatdes choses objectivables indépendamment du processus de connaissance.Deuxième niveau de réalité : état des choses inséparables du processus deconnaissance. Troisième niveau de réalité : état des choses créées en connexionavec le processus de connaissance. Distinction très subtile qui est fondée sur unesorte de révélation que Heisenberg a eu, mais également Pauli et d’autres —c’est-à-dire la réfutation de l’axiome fondamental de la métaphysique moderne :la division stricte entre sujet et objet (Bernard d’Espagnat parle souvent, dansses ouvrages, de la même idée, comme d'ailleurs Husserl, Heidegger et Cassirer).D’où la nécessité de considérer une réalité non pas stratifiée, dans le sens naïf duterme, mais structurée en niveaux discontinus. Les trois niveaux de réalité sontune conséquence de cette interaction entre le sujet et l’objet — entre processus deconnaissance et ce que nous objectivons en tant que scientifiques. Les troisrégions sont identifiées de la manière suivante : première région : la physiqueclassique ; deuxième région : physique quantique et phénomènes biologiques etpsychiques ; troisième région : la région d’expériences religieuses, philosophiqueset artistiques.

Sur le mot « réalité », il faudrait insister un peu. Pour Heisenberg, la réalitéest « la fluctuation continue de l'expérience telle que la saisit la conscience. À cetitre, elle n'est jamais identifiable en son entier à un système isolé... »

Page 112: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

Permettez-moi tout d'abord de distinguer « réel » et « réalité ». Le réel est cequi est (c’est-à-dire ce qui ne tolère aucun attribut, qui n’offre pas de résistance).La réalité, c’est ce qui offre une résistance. Cette acception que j'ai développéedans mes écrits est en accord avec la notion de « réalité empirique » de Monsieurd’Espagnat. Les niveaux de réalité concernent la réalité empirique et non pas leréel voilé. Je parle donc de niveaux à l’intérieur de la réalité empirique.

Une autre remarque très intéressante de Heisenberg : « Les concepts sontpour ainsi dire les points privilégiés où les différents niveaux de réalités’entrelacent ». Je trouve cette formulation à la fois fulgurante, poétique etscientifique, car c’est toute l’expérience d’un homme de science qui s’exprime ici.Heisenberg précise ensuite : « Quand on s’interroge sur les connexionsnomologiques de réalité, ces dernières se trouvent chaque fois insérées dans un« niveau » de réalité déterminé; on ne peut guère interpréter autrement leconcept de « niveau » de réalité (il n’est possible de parler de l’effet d’un niveausur un autre qu’en faisant un usage très général du concept d’« effet »). En retour,les différents niveaux sont mis en connexion dans les idées et dans les mots quileur sont associés et qui, dès le début, sont en relation simultanément avec denombreuses connexions ».

Ces remarques vont très loin. Ce n’est pas une remise en cause de la science,loin de là. Il est vrai que Heisenberg parle aussi d’une option : le Moyen Âge afait l’option de la religion, les XVIIe, XVIIIe et XIXe siècles ont fait l’option de lascience et le XXe siècle a opté pour la perte de tous les repères.

Personnellement, j’ai essayé de donner une définition beaucoup plusconnectée à ce que je savais, de ma propre expérience de physicien : je définistout d’abord la réalité en tant que résistance. Car nous savons que ça résistelorsque nous faisons de la science. Mais cela résiste à quoi ? Il n’y a pas que lesorganes des sens qui éprouvent une résistance, il y a aussi une résistance de lareprésentation. Il y a même une résistance de la formalisation mathématique.Certaines théories scientifiques apparaissent et d’autres disparaissent.Pourquoi ? Parce qu’il y a quelque chose qui résiste. Une formulationmathématique peut être extrêmement belle et cohérente et pourtant êtreabandonnée car il suffit d'un seul fait expérimental en contradiction avec lathéorie en question. C’est la beauté de la science. Ceci est contraire à toutrelativisme radical, hélas, à la mode actuellement.

Je dis que deux niveaux de réalité sont différents si, en passant de l’un àl’autre, il y a rupture des concepts fondamentaux et rupture des lois. C’est laraison pour laquelle j’ai donné comme point de départ, dans la formulation desniveaux de réalité, la question : « pourquoi ne peut-on passer de la mécaniqueclassique à la relativité d’une manière rigoureuse, formalisée, mathématique ? ».On pourrait penser que la décohérence est contre l’idée de niveaux. Mais il nes’agit que d’une apparence, tout d’abord parce qu’il n’y a pas qu’une théorie de ladécohérence, il y en a plusieurs. Il n’y a aucune compréhension du moment précisdu passage du classique au quantique, du point de vue formel. La décohérence

Page 113: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

fournit d'admirables recettes, des règles de passage, mais pas de compréhension.Tout comme Nottale ou comme Heisenberg, j’émets l’option qu’il ne s’agit pasd’un passage mais d’une nouvelle théorie qui, un jour, va contenir et l’une etl’autre théorie.

Le concept de niveaux de réalité transcende le domaine de la science : il nes’agit pas de résoudre des problèmes de mécanique quantique, mais decomprendre la conciliation entre la mécanique classique et la mécaniquequantique. Mais comme je l’ai dit, en citant Heisenberg, cela va beaucoup plusloin, vers le domaine du sujet. Et qui dit domaine du sujet dit aussi domaine del’art, de la vie intérieure, de l’esthétique, etc. Donc, dans ce sens-là, on retrouve lanotion de niveaux de réalité, qui est très ancienne. On retrouve cette notion danstoutes les traditions du monde. Ce qui est nouveau, c’est que l’on peut s’appuyersur des données de la science pour donner consistance à cette notion de niveauxde réalité.

Page 114: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

2.3 - Débat

Interventions de MM. Bernard d’Espagnat, Bassarab Nicolescu, Jean Bricmont,François Lurçat, Jean-François Lambert, Jean-Michel Alimi, DominiqueLaplane, Jean Kovalevsky,

Bernard d’Espagnat

J’ai plusieurs questions, en particulier adressées à Basarab Nicolescu.Dans vos livres, vous parlez beaucoup d’une logique à plusieurs niveaux, d’unelogique du tiers non exclu. Et ici, vous ne nous en avez pas parlé du tout. Ce quim’a toujours un peu arrêté, dans votre pensée, mais aussi dans les travaux despersonnes travaillant sur la logique quantique, c’est justement cette introductiond’une notion de nouvelle logique. Je suis un peu allergique à cela pour des raisonsque je pourrais expliciter, mais ma question était simplement : pourquoi ne nousen avez-vous rien dit ? Une autre question qui tient cette fois à la penséed’Heisenberg est : est-ce que Heisenberg, dans ce livre particulier cité par vous —qui a été écrit dans des circonstances très particulières et où je ne retrouve pastotalement la pensée de Heisenberg —, ne pousse pas le relativisme à l’extrêmelorsqu’il nous dit qu’il y a eu une époque où les dieux grecs ont véritablementdirigé le monde ? Où il nous laisse entendre qu’il ne faut pas prendre ça commeune métaphore mais comme une affirmation de la réalité ? Est-ce qu’il ne poussepas, là, le bouchon un petit peu loin ?

Basarab Nicolescu

Concernant la première question, la réponse est très claire. L'idée deniveau de réalité et la logique qui permet le passage d'un niveau à l'autre sontdeux sujets distincts. Si vous souhaitez que je parle un jour de la logique du tiersinclus, j'en parlerai car l'on ne peut jamais faire l'économie d'une logique. Lalogique du tiers inclus a été mentionnée par Hegel, c'est quelque chose de trèsancien. La question qui a été posée depuis la naissance de la mécaniquequantique par Von Neumann et Birkhoff était : « Cela change-t-il ou non lesnormes de validité des propositions ? » Ceci est donc un problème tout à faitdistinct. Il ne s'agit pas donc d'une évolution ou d'une involution de ma pensée,mais tout simplement, pour des raisons pédagogiques, je ne voudrais pasmélanger les deux sujets.

Quant à Heisenberg, je crois qu'effectivement vous posez ici un problème.Il y a deux lectures différentes que l'on peut faire de cette position intéressante. Ily a effectivement une tentation de relativisme, immédiatement présente lorsquel'on dit « niveau de réalité ». Mais il existe également une autre lecture, qui estcomplètement opposée à la première et qui a sa racine dans l'affirmation que« tout ce que nous faisons est lié à notre conscience ». Cela ne signifie pas uneposition idéaliste mais la reconnaissance du fait que nous sommes impliquésdans la formation des théories. Je rappelle ce qu'en dit Heisenberg : « le nom

Page 115: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

donné à la réalité est le nom donné à la situation continue de l'expérience telleque la saisit la conscience. À ce titre, elle n'est jamais identifiable en son entier àun système isolé ». Si l'on prend le mot « conscience » dans un sens naïf (recettede calcul), on arrive à des affirmations absurdes et l'on pourrait penser quEHeisenberg est un philosophe de deuxième catégorie. Lorsqu'on regarde plusprofondément, on voit que le mot « conscience », pour lui, a une étendue trèsgrande et qu'il sait ce qui est non définissable et donc non réfutable car on nepeut réfuter une option.

Il fait l'option que tout ce que nous faisons, c'est en dernier compte unesituation de l'esprit. Et cela ne relève pas du relativisme. C'est autre chose, c'estle fait que nous sommes impliqués profondément dans la construction de nosthéories. François Lurçat a cité Husserl, et Husserl n'était pas un simplemathématicien. Il fut également l'inventeur de sa si profonde philosophie danslaquelle il a cherché les axiomes qui sont au fondement des sciences. Et encherchant cela, il nous a trouvé, nous, ce « nous » au fondement de toute théorie.La philosophie de Husserl est une référence importante dans notre discussion.Enfin je mentionne juste en passant les importants travaux récents de FranciscoVarela concernant la notion de temps — la façon dont le temps est perçu. Et luiaussi arrive finalement à Husserl.

Jean Bricmont

Je voudrais faire une remarque sur la réalité et sur la conscience. On citetoutes sortes de phrases sur la réalité. Il y en a une que j’aime beaucoup et quiest de Shrödinger : « reality is an empty word ». C’est un mot que l’on ne peut pascaractériser de manière profonde, un peu comme le mot « vérité ». On dit parfois :« est-ce que c’est vraiment vrai ? » Si l’on répond « oui, c’est vraiment vrai », ça neveut pas dire qu’il y a une autre vérité qui, elle, n’est pas vraiment vraie ou quiserait faussement vraie. Il me semble qu’il y a un moment où, dans le sens demots comme « existence » ou « vérité », on se heurte aux limites de notre langage ;c’est-à-dire que ce sont des mots tellement fondamentaux que, si on ne sait pas cequ’ils veulent dire, on ne peut plus communiquer. Si je vous dis que je ne sais pasqui était Xénophon, on peut me répondre, mais si je demande ce qu’est la réalité,cela est infiniment plus complexe !

Basarab Nicolescu

Je vous suis tout à fait car je trouve que ce que vous venez de dire est uneillustration très vivante d'une conséquence de l'idée de niveau de réalité, à savoirla notion de « niveau de représentation ». Chacun de nous a un système implicitede références. Et, dans votre système de références, je ne peux être que tout à faitd'accord avec vous. Si je prends un autre système de références, c'est une autrehistoire. Je me trouve donc tout à fait d'accord avec ce que vous avez dit, selonvotre système de références. À une exception près, toutefois. Dans le cadre d'une

Page 116: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

autre discussion, vous avez employé le mot « préexistant ». Je n'ai pas compris ceque vous vouliez dire par préexistant.

Jean Bricmont

C’est lorsqu’il y a un certain nombre de choses dont on pense qu’ellespréexistent à notre connaissance, par exemple lorsque l’on pense qu’il y avait desdinosaures avant qu’on sache qu’ils existent. La plupart des physiciens pensentque, si vous mesurez la longueur de la table, la table a une certaine longueurpréexistante à cette mesure réalisée. J’ai dit que le théorème principal contre lesvariables cachées de Bell — mais qui n’exclut pas Bohm — était « il estinconsistant de supposer que toutes les propriétés que l’on mesure comme spinangulaire etc. préexistent à l’observation ». Cela est inconsistant et je ne défendspas cette conception. Ce qui ne veut pas dire qu’il n’y a rien de préexistant. Et,dans la théorie de Bohm, il y a quelque chose de préexistant qui rend compte dufait que les propriétés sont, comme on dit, « contextuelles ».

Basarab Nicolescu

Je ne sais pas à quel Bohm vous faites référence. Il y en a deux. J'ai trèsbien connu David Bohm ; nous avons eu des discussions très longues sur lesniveaux de réalité, entre autres à Lawrence Berkeley Laboratory et à BirbeckCollege. Le problème est que le deuxième Bohm, ami et quelque peu disciple deKrishnamurti, n'est plus du tout le même que le premier. La réalité implicitedont il parle est complètement inaccessible, elle s'approche du réel, le réel, dontj'ai parlé tout à l'heure, qui est source de toute observation, de toute mesure, detoute théorie. Il s'agit donc d'une vision plus spiritualiste, tandis que Heisenbergse situe plus dans la philosophie.

Jean Bricmont

J’ai de l’admiration pour la personnalité de Bohm et pour son histoire,mais n’éprouve pas une adhésion à sa pensée comparable à celle que les gens quisont religieux ont pour Jésus par exemple. C’est comme avec Newton : il y avaitchez lui l’alchimiste, le mystique. Aujourd’hui, on prend les équations de Newtonet l’on jette le reste. C’est comme cela que l’on fait en physique. Vous n’êtes pasobligé d’adhérer à la philosophie d’Einstein pour utiliser les équations de larelativité.

François Lurçat

J’ai été très intéressé par la remarque de Jean Bricmont, à qui l’on disait,lorsqu’il était un jeune physicien, que Bohr avait tout résolu. Elle estparfaitement pertinente. C’est justement la forme qu’a prise l’incompréhension

Page 117: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

totale de la pensée de Bohr. Elle a consisté à dire : Bohr a tout résolu, il n’y adonc plus rien à chercher.

Bohr était quelqu’un dont le statut social était immense, pour des raisonsscientifiques évidentes mais également parce que c’était le grand patron de laphysique au Danemark entre les deux guerres ; on ne discutait donc pas cequ’avait dit le maître. Par conséquent, puisqu’on ne le discutait pas, il n’était pasnécessaire non plus de le comprendre. Le fait est que ça n’a pas été compris etque je n’ai vu personne, en dehors de Max Born sur certains points, qui ait donnédes signes réels de compréhension concernant ce qu’avait dit Niels Bohr. Lesdisciples de Niels Bohr, lorsque ce dernier venait au tableau et commençait sonexposé par des considérations d’ordre général, ou philosophique si vous voulez,disaient : « ha, Bohr dit sa messe ». Et Bohr ne s’attendait tellement pas à êtrecompris qu’il marmonnait, si bien que, comme le rappelait Bernard d’Espagnatdans un article récent, lorsque son épouse était là, elle lui disait : « un peu plusfort Niels ! ». Mais il savait très bien que personne ne le comprenait.

C’est la raison pour laquelle le mérite de John Bell est immense : lui avraiment voulu comprendre. Et en voulant vraiment comprendre, il est parti deprésupposés opposés à ceux de Bohr et a fait cette découverte, qui est la grandedécouverte de la seconde moitié du XXe siècle : c’est-à-dire le théorème, lesinégalités de Bell. Cela veut dire en fait que la compréhension de la théorie deBohr avait besoin de contradictions, de dialectique — si je peux utiliser ce motqui a eu de très mauvaises fréquentations mais qui garde tout de même unecertaine valeur à mon avis. C’est pourquoi, le texte le plus intelligible de Bohr estle compte-rendu de sa discussion avec Einstein. Ensuite, la contribution la plusprécieuse qui ait été faite à la compréhension de Bohr, c’est John Bell lecontredisant radicalement.

Jean-François Lambert

J’aimerais entendre Jean Bricmont sur la conscience et vais donc dire unmot dans ce sens. Basarab Nicolescu sait qu’à chaque fois que l’on se retrouvedans ce genre d’enceinte, j’ai des problèmes avec la notion de niveaux en généralet avec la notion de niveaux de réalité en particulier. Surtout qu’il nous a donnétout à l’heure trois niveaux de réalité : le premier, indépendance du processus deconnaissance, le deuxième, inséparabilité du processus de connaissance, letroisième, créativité en connexion avec le processus de connaissance.

Comme Bricmont l’a fait remarquer, il y a là trois fois le mot« connaissance », mais le concept n’est absolument pas défini. Qu’est-ce qu’unprocessus de connaissance ? Qu’est-ce qu’une connaissance indépendante d’unprocessus de connaissance ? D’autant qu’après, Bassarab Nicolescu a préciséqu’au premier niveau on faisait correspondre la physique classique, au troisième,l’expérience religieuse et artistique et, entre les deux, la mécanique quantique, labiologie et la conscience. Ce que je souhaiterais souligner, c’est qu’utiliser lanotion de niveaux pour définir la conscience est totalement tautologique ou

Page 118: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

aporétique car, au fond, les niveaux supposent un découpage et ce découpagesuppose une instance découpante. C’est-à-dire que les niveaux sont supposésexpliquer la conscience, alors qu’en fait ces niveaux présupposent quelque choseque l’on appelle la conscience. Le découpage présuppose une instance découpanteque le découpage est censé expliquer. La tautologie est sans doute inévitable,mais elle fait que je suis assez résistant à la théorie des niveaux.

Par ailleurs, j’ai relu en détail les interventions du séminaire précédent etj’ai constaté que Jean Bricmont revenait 31 ou 32 fois sur le mot « explication ». Àchaque fois vous dîtes : « qu’est-ce qu’une explication scientifique ? », « là, ilfaudrait discuter l’explication à propos du principe anthropique » et ainsi desuite. Ou encore vous parlez d'« interprétation ». Il est normal, dans ce contexte,de parler des sciences cognitives. Et, dans le jargon des sciences cognitives, onparle plutôt de « situations cognitives », de manière assez neutre, de façon à nepas buter immédiatement sur la conscience de l’observateur.

François Lurçat a insisté sur le fait que la notion centrale de Bohr, c’estl’instrument d’observation, ce n’est pas l’observateur. Mais qu’est-ce qu’uninstrument d’observation ? Aucun instrument n’observe. Il y a donc un problèmede vocabulaire. Un instrument n’observe pas. Il y a un observateur qui observe àtravers un instrument d’observation. La question de ce que l’on appelle en sciencecognitive « les situations cognitives » est : est-ce qu’il y a de la cognition sansobservateur ? Comment définir un système cognitif ? Peut-il exister de lacognition indépendamment des observateurs conscients que nous sommes ? Jepense que, notamment au niveau de réalité dont nous parlons ici, on ne peut pasfaire l’impasse sur le statut de la cognition (disons cognition pour éviter lesamalgames spiritualistes ou autre). Il y a un vrai problème sur ce que signifie« connaître ».

Jean Bricmont

Ma réaction sur la conscience est toujours la même, c’est-à-dire que ce n’estpas la physique quantique qui va nous éclairer sur la conscience. Cela reviendraità demander à la physique quantique de nous expliquer la théorie de l’évolution.Bell dit : « la conscience est un phénomène extrêmement important, mystérieux »,mais il dit aussi que ce n’est pas la physique qui va résoudre ce problème.

Jean-Michel Alimi

Savoir si la mécanique quantique peut nous éclairer sur la conscience n'estpas une question totalement sans réponse. Les travaux du physicien Penrose, quiréinterprètent comme un « effet » de conscience, la réduction du paquet d'ondes,doivent être considérés.

Page 119: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

Jean Bricmont

Je sais, en effet, que Penrose dit cela. Mais, pour le défendre, je dirais toutd’abord qu’il est très spécifique. Bien plus que les discours entendus sur le rôle del’observateur, par exemple. Chez Penrose, il y a l’idée selon laquelle il pourrait yavoir une réduction des paquets d’ondes, que cela pourrait être en relation avecles microtubules, etc. Il ne s’agit pas d’une théorie scientifique, c’est trop vague.Cependant, c’est infiniment plus précis que les discours philosophiques que l’onrencontre d’habitude sur le rôle de la conscience ou de l’observateur enmécanique quantique. Je veux, à la fois, défendre Penrose en précisant que sonidée n’est pas aussi vague que les discours courants, tout en affirmant qu’il resteencore assez peu scientifique.

François Lurçat

Je souhaiterais répondre à la question de Jean-François Lambert relative àl’instrument d’observation. Bien entendu, l’instrument n’observe pas. Seulement,si vous prenez n’importe quel appareil de détection de particules, la particulepasse et déclenche un processus d’avalanche. C’est un phénomène physique. Qu’ily ait quelqu’un pour l’observer ou pas, le phénomène physique reste le même. Onpeut entrer cette observation dans un ordinateur. Le physicien arrivera lelendemain matin et pourra découvrir cette observation ou non. Cela a donc unsens de parler de l’instrument d’observation. Je veux bien employer un autre mot,par exemple « dispositif expérimental », tout en reconnaissant qu’il y auratoujours l’ambiguïté que vous critiquez. Mais cette ambiguïté n’est pas tellementcritiquable. Il y a un processus physique d’avalanche qui se déroule et qui rendobservable ce qui ne l’est pas — c’est-à-dire la micro particule — et qui permetensuite aux gens de l’observer.

Jean-François Lambert

Je ne suis, bien entendu, pas de ceux qui pensent que c’est le physicien quihallucine le résultat. Il s’agit ici du problème de situation cognitive, c’est-à-direque, tant qu’il n’y a pas eu cette situation cognitive, il n’y a pas de vraieconnaissance. Vous pouvez avoir des bascules qui ont enregistré définitivement lephénomène physique, mais ce phénomène physique ne devient une connaissance,un objet cognitif, que dans une interaction avec un sujet, avec une instance.

François Lurçat

Les sciences cognitives sont des sciences à crédit.

Page 120: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

Dominique Laplane

Tant que l’on n’est pas au clair sur ce qu’est le langage, sur son rapportavec la pensée, on crée des problèmes qui sont insolubles. Je ne peux pas vousexpliquer cela en deux minutes — cela fera d’ailleurs l’objet d’une discussionultérieure —, mais lorsque l’on parle de la transparente clarté desmathématiques, qui finalement aboutit à cette obscurité complète dans laquellenous nous trouvons, et lorsque j’entends dire qu’il faut distinguer le physicien quiest dans son domaine de technicien et le physicien qui réfléchit à ce qu’il fait, jecrois qu’il s’agit de la même personne qui parle de la même chose, mais enutilisant deux langages complètement différents. Ainsi il faut s’interroger sur lanature du langage et la nature de la pensée qui est sous-jacente à ce langage.

Jean Kovalevsky

Je rebondis sur ce que Jean-François Lambert nous a dit. Il y aactuellement des tonnes de connaissances qui sont faites automatiquement pardes satellites ; on fabrique des catalogues de millions d’étoiles directement àpartir de ces mesures automatiques et cela constitue une connaissance utilisabledirectement. On ne sait pas, parmi ces lignes de catalogue, quelle étoile a étéobservée et vue par un observateur et laquelle est issue d’une observationautomatique suivie de calcul. Elles ont le même statut. Je crois que nous allonsvers une époque où une partie importante de la connaissance sera acquiseindépendamment de l’homme.

Dominique Laplane

Mais si ce sont des millions de données qui n’ont pas été interprétées, cen’est pas une connaissance.

Jean-Michel Alimi

Il faut distinguer la notion d’accumulation d’informations au sens del'accumulation de données de la notion de connaissance.

Jean-François Lambert

Le catalogue de Jean Kovalevsky a, dans son raisonnement, une réalitéobjective que j’accepte et que je partage : il n’est pas besoin d’un homme dans lesatellite pour dresser le catalogue. Cependant, ce catalogue ne devient uneconnaissance pour moi que le jour où j’en prends connaissance, où je suis dansune situation cognitive.

Page 121: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

Jean-Michel Alimi

Qu'est ce que la connaissance ? Je ne crois pas que l'on puisse réduire ledébat sur cette question fondamentale à l'alternative suivante : le point de vueprésenté par Jean Kovalevsky — c'est-à-dire une simple accumulation de donnéessur le monde — ou l'idée que les données d'un catalogue constitueraient uneconnaissance à condition toutefois d'en prendre connaissance, c'est-à-dire commevous le dites d'être « en situation cognitive ». Je pense que l'élaboration etl'énoncé d'un discours personnel sur le monde, sans relation directe même avecdes données établies sur ce monde, peuvent, sous certaines conditions, constituerla connaissance.

Page 122: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

3- La non-localité et la théorie de Bohm

Jean Bricmont

1- La non-localité

En 1935, Einstein, Podolsky et Rosen (EPR) [13] ont mis le doigt sur l’aspectconceptuellement le plus révolutionnaire de la mécanique quantique.Malheureusement, cet aspect a été généralement incompris à l’époque et l’article aété présenté par ses auteurs comme étant seulement une critique de l’interprétationtraditionnelle de la mécanique quantique.

Ce n’est qu’en 1964 que John Bell a montré que la seule conclusion possible del’analyse d’Einstein, Podolski et Rosen est que le monde est non local. Afin decomprendre précisément ce que cela veut dire, voyons d’abord l’argument d’Einstein,Podolski et Rosen. On construit une source qui envoie les particules dans desdirections opposées, disons vers la gauche et vers la droite, et ces particules setrouvent dans un certain état quantique. On place des instruments de mesure, unpour chaque particule. Ces instruments peuvent, en principe, être placésarbitrairement loin l’un de l’autre1. Ces appareils peuvent chacun se trouver danstrois positions (1, 2 ou 3) et le résultat de la mesure est de type binaire : nous lenoterons « oui » ou « non ». Le résultat d’une expérience peut donc être mis sous laforme, par exemple (1, oui, 2, non) c’est-à-dire que l’appareil de gauche est dans laposition 1 et le résultat est « oui », tandis que celui de droite est dans la position 2 etle résultat est « non ».

Einstein, Podolsky et Rosen sont partis du fait que l’état quantique prédit unecorrélation parfaite quand les appareils, à gauche et à droite, sont dans la mêmeposition : s’ils sont tous deux sur 1 (ou 2, ou 3) les réponses seront toutes deux « oui »ou toutes deux « non »2. Mais l’état quantique des particules ne nous dit pas si lerésultat sera « oui » ou « non ». En langage imagé, chacune des particules n’est niprête à dire « oui » ni prête à dire « non », quelle que soit la direction dans laquelleon « l’interroge ».

Supposons maintenant qu’on ne fasse d’abord qu’une mesure à gauche enretardant la mesure à droite — on recule un peu l’appareil de mesure.Immédiatement après la mesure à gauche, on est sûr du résultat à droite : oui si le 1 Pour que ce qui suit reste valable, il faut que les particules soient isolées du reste du monde avantd'interagir avec l'appareil de mesure, ce qui en pratique semble impossible pour de très grandesdistances. Dans les expériences actuelles, les distances sont de l'ordre de quelques kilomètres.Néanmoins, le phénomène est tellement extraordinaire que le fait qu'en principe la distance entreappareils de mesure puisse être aussi grande qu'on veut mérite d'être souligné.2 Chaque « réponse » apparaissant avec une fréquence 1/2 lorsqu'on répète l'expérience un grandnombre de fois.

Page 123: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

résultat à gauche est oui, non si le résultat à gauche est non. En effectuant lamesure à gauche, a-t-on changé l’état physique du système à droite3 ? Si l’on s’entient à la description qui vient d’être donnée, la réponse est oui : avant la mesure (àgauche), le système était radicalement indéterminé (des deux côtés) et, après lamesure (à gauche) il est déterminé (à gauche et à droite), en ce sens que la mesureultérieure (à droite) a maintenant un résultat bien déterminé. Il semble donc qu’on aaffaire à une forme d’action à distance, peut-être subtile mais une action quandmême4.

Néanmoins, il y a un trou béant dans cet argument : qu’est-ce qui nous ditque, lorsque nous effectuons la mesure à gauche, nous ne découvrons pas unepropriété intrinsèque de la particule — exprimée sous la forme de la « réponse »oui/non — qui serait simplement la même pour la particule envoyée à droite ? Biensûr, le formalisme quantique ne parle pas de telles propriétés — les particules nedisent ni oui ni non avant d’être mesurées —, mais pourquoi ce formalisme est-il ledernier mot de l’histoire ? Avant d’admettre une conclusion aussi radicale que lanon-localité, il faudrait peut-être envisager toutes les autres possibilités. Parexemple, comme les particules proviennent d’une source commune, il se peut trèsbien, a priori, qu’elles emportent avec elles des « instructions » qui spécifientcomment répondre aux différentes questions5. Et, alors, il n’y a plus aucun mystèreni action à distance dans le fait que leurs réponses sont les mêmes. Et pour Einstein,Podolsky et Rosen, c’était bien la conclusion qui s’imposait : la non-localité étantimpensable, ils pensaient avoir démontré que la mécanique quantique était« incomplète ». Il faut bien préciser le sens de ce mot. Cela ne veut pas dire que ces« instructions », ou « variables cachées » comme on les appelle — c’est-à-diren’importe quoi qui n’est pas inclus dans la fonction d’onde — soient accessibles ànotre connaissance, que nous puissions les manipuler, les prédire, etc. C’est

3 Dans le formalisme habituel ce qui se passe c'est simplement que la mesure à gauche réduit lafonction d'onde mais, vu sa forme, la réduction opère aussi à droite. Évidemment, l'importance quel'on attache à ce fait, quand il est exprimé dans le formalisme de la mécanique quantique, renvoie austatut que l'on accorde à la fonction d'onde et à sa réduction. C'est pourquoi il vaut mieux discuter dela non-localité directement, sans passer par le formalisme de la mécanique quantique, pour éviter demêler ce problème avec celui des interprétations. De plus, on montre ainsi que la non-localité est unepropriété de la nature établie à partir d'expériences et de raisonnements élémentaires,indépendamment de l'interprétation qu'on donne du formalisme quantique. Par conséquent, toutethéorie ultérieure qui pourrait remplacer la mécanique quantique devra également être non-locale.4 Il est difficile d'exprimer combien cette notion d'action à distance fait horreur à certains physiciens :Newton écrivait « qu'un corps puisse agir sur un autre à distance, à travers le vide et sans lamédiation de quelqu'autre corps… me paraît être une telle absurdité que je pense qu'aucunepersonne ayant la faculté de raisonner dans des questions philosophiques ne pourra jamais y croire »(cité dans [20], p.213) et Einstein, parlant de la situation décrite dans l'article EPR disait « Ce quiexiste réellement en un point B ne devrait pas dépendre du type de mesure qui est faite en un autrepoint A de l'espace. Cela devrait également être indépendant du fait que l'on mesure ou non quelquechose en A » (cité dans [23], p.121).5 Le mot « instruction » est dû à Mermin [22]. Mais peu importe le terme, il désigne n'importe quoiqui permette d'expliquer comment le fait que les particules proviennent d'une source commune peutrendre compte, de façon purement locale, des corrélations parfaites.

Page 124: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

simplement qu’elles existent. Qu’il y ait quelque chose dans le monde, unmécanisme, déterministe ou probabiliste peu importe, qui explique comment lasource donne ces « instructions » aux particules. En fait, il y a une interprétation dela mécanique quantique qui est parfaitement compatible avec cette façon de voir leschoses. On donne à la fonction d’onde un statut purement épistémique. Ellereprésente tout ce que nous pouvons connaître, à jamais, sur le système. Cecin’empêche nullement qu’il existe des variables « cachées » qui déterminent, pourchaque particule le résultat de la mesure : pour chaque position 1, 2 ou 3, uneparticule donnée répondra oui ou non et cette réponse sera la même à gauche et àdroite, parce que les deux particules viennent de la même source. Mais, comme nousn’avons pas accès à ces réponses avant de les mesurer et que l’état initial est tel queles réponses sont, une fois sur deux, oui et une fois sur deux non, on a l’illusion d’uneaction à distance.

Maintenant, venons-en à Bell. Ce qu’il montre, c’est que de telles instructionsou « variables cachées » qui sauveraient la localité n’existent simplement pas.Comment peut-on tester une idée apparemment aussi « métaphysique » ? Onregarde ce qui se passe quand les détecteurs ne sont pas alignés. Alors, on n’a plusde corrélation parfaite, mais on obtient certains résultats statistiques6, égalementprédits par la mécanique quantique, et qui sont incompatibles avec la simpleexistence d’instructions expliquant la corrélation parfaite. Il faut souligner qu’ici ona affaire à une déduction purement mathématique7. De plus, comme ces prédictionsde la mécanique quantique ont été vérifiées expérimentalement [1], on peut faire leraisonnement en se passant de la théorie et en concluant que la non-localité estdéduite directement de l’expérience via le raisonnement d’EPR-BeII. Mais il ne fautpas oublier la partie EPR de l’argument. Sinon, on en conclut que Bell a simplementmontré l’inexistence de certaines variables cachées — comme on l’avait toujourspensé de toutes façons — et que « Bohr gagne à nouveau » [2]8. Mais ce n’est pas dutout de cela qu’il s’agit. L’inexistence de ces variables cachées implique que le mondeest non-local, puisque ces variables étaient la seule « porte de sortie » aux vues del’argument EPR. Et c’est cela qui est réellement surprenant dans le résultat de Bell.

6 Il existe une variante de l'argument de Bell [19], avec trois particules, et dans laquelle on n'a pasbesoin de statistique : un seul évènement suffit pour montrer l'inexistence de ces « instructions ».Mais, dans ce cas, l'expérience n'a pas encore été faite.7 Qui est tellement simple qu’on peut en esquisser la démonstration : si les instructions existent,comme il n’y a que deux réponses (oui/non) pour trois « questions » ou positions (1, 2, 3), il fautnécessairement que, dans chaque expérience, au moins deux réponses à des questions différentescoïncident. Donc, si l’on additionne les fréquences avec lesquelles des réponses identiquesapparaissent lorsqu’on pose des questions différentes, on obtient un nombre plus grand ou égal à 1.Or, pour des expériences quantiques appropriées, cette somme est égale à 3/4. D’où une contradiction.8 Bell se plaint lui-même de ce que son théorème soit presque systématiquement interprété commesimplement une réfutation des théories de variables cachées, en oubliant les conséquencesconcernant la localité : « Mon premier article sur le sujet (Physics 1, 135 (1965)) commence par unrésumé de l'argument EPR, déduisant de la localité les variables cachées déterministes. Mais lescommentateurs ou presqu'universellement dit que cet article partait de variables cachéesdéterministes » ([2], p.157).

Page 125: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

Voici ce qu’il en dit lui-même : « Le malaise que je ressens vient de ce que lescorrélations quantiques parfaites qui sont observées semblent exiger une sorted’hypothèse « génétique » (des jumeaux identiques, qui ont des gènes identiques).Pour moi, il est si raisonnable de supposer que les photons dans ces expériencesemportent avec eux des programmes, qui sont corrélés à l’avance, et qui dictent leurcomportement. Ceci est si rationnel que je pense que, quand Einstein a vu cela etque les autres refusaient de le voir, il était l’homme rationnel. Les autres, bien quel’histoire leur ait donné raison, se cachaient la tête dans le sable. Je pense que lasupériorité intellectuelle d’Einstein sur Bohr, dans ce cas-ci, était énorme ; unimmense écart entre celui qui voyait clairement ce qui était nécessaire, etl’obscurantiste. Aussi, pour moi, il est dommage que l’idée d’Einstein ne marche pas.Ce qui est raisonnable simplement ne marche pas ». ([4], p. 84). Il faut souligner queBell est encore trop gentil : l’histoire n’a pas simplement donné raison auxadversaires d’Einstein. Ceux-ci ne voyaient pas clairement la non-localité présentedans la nature ; le fait que « nous ne puissions pas éviter le fait que l’interventiond’un côté ait une influence causale de l’autre » ([2], p. 150) n’est devenu clair qu’avecle résultat de Bell.

Voyons plus en détail ce que la non-localité est réellement. Pour cela, je vaisdonner d’abord deux exemples de ce qu’elle n’est pas9. Premièrement, imaginons queje coupe en deux une image et que j’envoie par courrier chaque moitié à descorrespondants mettons l’un aux Etats-Unis, l’autre en Australie. Ces deuxpersonnes ouvrent simultanément leur courrier ; chacune apprend instantanément(étant supposé qu’elles sont au courant de la procédure) quelle moitié de l’imagel’autre a reçu. Disons qu’il y a acquisition (instantanée) d’information à distance,mais il n’y a rien de mystérieux. Ce que le résultat de Bell nous dit, c’est que lasituation EPR n’est nullement de ce type. Ici, chaque moitié de l’imagecorrespondrait aux instructions dont Bell montre qu’elles n’existent pas.Prenons un autre exemple, radicalement différent. Imaginons un sorcier ou unmagicien qui agit à distance : en manipulant une effigie il influence l’état de santéde la personne représentée par celle-ci. Ce genre d’action (imaginaire) à distance aquatre propriétés remarquables :

1- elle est instantanée, ou, du moins, comme on est dans l’imaginaire, onpeut le supposer ;

2- elle est individuée : c’est une personne particulière qui est touchée etpas celles qui sont à côté ;

3- elle est à portée infinie : même si la personne en question se réfugiaitsur la lune, elle n’échapperait pas à l’action du sorcier ;

4- elle permet la transmission de messages : on peut coder un messagesous forme d’une suite de 0 et de 1 et l’envoyer en faisant correspondre

9 Le premier exemple est similaire à celui des chaussettes de M. Bertlmann [2], donné par Bell. Pourun exemple remarquable d’incompréhension de cet article, voir Gell-Mann, [15], p. 172.

Page 126: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

un 1 à l’action du magicien, pendant une unité de temps, et un 0 à sonabsence d’action.

Ce qui est extraordinaire avec la non-localité quantique, c’est qu’elle a lestrois premières propriétés « magiques » mais pas la quatrième. Les propriétés 2 et 3sont sans doute les plus surprenantes : si l’on envoie un grand nombre de paires departicules en parallèle, un appareil de mesure à gauche va influencer l’état de laparticule à droite qui est « jumelle » de celle qui est mesurée et pas les autres. Deplus, cette action ne décroît pas en principe avec la distance, contrairement à toutesles forces connues en physique10. Finalement, cette action semble instantanée, entout cas elle se propage plus vite que la vitesse de la lumière [1]. Mais elle ne permetpas d’envoyer des signaux. La raison en est simple : quelle que soit l’orientation del’appareil de mesure à gauche, le résultat à droite sera une suite aléatoire de « oui »et de « non ». Ce n’est qu’a posteriori qu’on peut comparer les suites de résultatsobtenus et constater la présence de corrélations étranges. Le caractère aléatoire desrésultats bloque en quelque sorte la transmission de messages : voir [20], [21] pourune discussion plus approfondie.

On ne saurait trop insister sur cet aspect de la situation EPR : ceci ladistingue radicalement de toute forme de magie et invalide à l’avance les efforts deceux qui voudraient voir dans le résultat de Bell une porte ouverte pour unejustification scientifique de phénomènes paranormaux11.

Mais les autres aspects sont bien là, et ils sont déconcertants : instantanéité,individualité, non-décroissance avec la distance. Du moins, c’est la conclusion qu’onpeut tirer aujourd’hui, aux vues des résultats expérimentaux.

De plus, il faut se garder de conclure que l’impossibilité d’envoyer des signauxsignifie qu’il n’y ait pas d’action à distance ni de relation de cause à effet. La notionde cause est compliquée à analyser mais, comme le fait remarquer Maudlin [21], lestremblements de terre ou le Big Bang ne sont pas contrôlables et ne permettent doncpas l’envoi de signaux, mais ce sont néanmoins des causes ayant certains effets. Lanotion de signal est bien trop anthropocentrique pour que la notion de cause puisselui être réduite.

Quelles sont les réactions des physiciens face au théorème de Bell ? Le moinsque l’on puisse dire c’est qu’elles varient. À un extrême, H. Stapp déclare que « lethéorème de Bell est la plus profonde découverte de la science » [25] et un physiciende Princeton déclare « celui qui n’est pas dérangé par le théorème de Bell doit avoirdes cailloux dans la tête » [22]. Mais l’indifférence est néanmoins la réaction la plus

10 Pourvu que Ies particules soient isolées, ce qui impossible en pratique pour de grandes distances.Par ailleurs, il ne s'agit pas d'une "force" mais d'un phénomène nouveau.11 Pour une bonne critique des pseudo-sciences, voir [8], et surtout [14] sur l'usage abusif del'expérience EPR par des parapsychologues.

Page 127: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

répandue. Mermin distingue différents types de physiciens [22] : ceux du premiertype sont dérangés par EPR-Bell. La majorité (le type 2) ne le sont pas, mais il fautdistinguer deux sous-variétés. Ceux de type 2a expliquent pourquoi cela ne lesdérange pas. Leurs explications tendent à être entièrement à côté de la question ouà contenir des assertions physiques dont on peut montrer qu’elles sont fausses. Ceuxdu type 2b ne sont pas dérangés et refusent de dire pourquoi. Leur position estinattaquable ; il existe encore une variante du type 2b qui disent que Bohr a toutexpliqué mais refusent de dire comment.

Les explications reviennent toujours — du moins d’après mon expériencepersonnelle — à une des deux positions suivantes.

Dans le premier cas, on déclare qu’il n’y a pas d’action à distance parce qu’onapprend simplement quelque chose sur la particule à droite en effectuant la mesureà gauche. Born adoptait cette position : « Le fond de la différence entre Einstein etmoi était l’axiome que des évènements se produisant à des endroits différents A et Bsont indépendants l’un de l’autre en ce sens que l’observation de la situation en A nepeut rien nous apprendre sur la situation en B » [7]. Bell ajoute correctement :« l’incompréhension était totale. Einstein n’avait aucune difficulté à admettre quedes situations à des endroits différents soient corrélées. Ce qu’il n’acceptait pas c’estque l’action en un endroit puisse influencer, immédiatement, la situation en unautre endroit »12. [2]. L’idée de Born, quand on la rend précise, mène justement aux« variables cachées », dont Bell montre que la simple existence est impossible.

La deuxième réponse revient à dire que la mécanique quantique explique lephénomène et qu’elle est complète et locale. D’abord, comme le dit Bell « lamécanique quantique n’explique pas vraiment ; en fait, les pères fondateurs de lamécanique quantique se flattaient plutôt de renoncer à l’idée d’explication » ([10],p. 51). Évidemment, la mécanique quantique prédit les corrélations parfaites etimparfaites qui interviennent dans le raisonnement EPR-Bell. Mais est-ce queprédire équivaut à expliquer ? Pour comprendre la différence entre ces deux notions,imaginons un vrai magicien agissant vraiment à distance, d’une façon qui défieraittoutes les lois de la physique, mais qui pourrait parfaitement prédire quand sespouvoirs agissent. Personne ne prendrait cette prédiction pour une explication.

Néanmoins, on peut donner une explication du phénomène EPR-Bell dans lecadre de la mécanique quantique. On donne à la fonction d’onde un statut physiqueet non simplement épistémique et l’on introduit deux types d’évolutions temporellespour la fonction d’onde : l’évolution donnée par l’équation de Schrödinger en dehorsdes opérations de mesure et la « réduction » de la fonction d’onde, lorsqu’une mesurea lieu — la nécessité de l’introduction de cette double dynamique sera discutée dansla section suivante. Le problème est alors que l’opération de réduction est, dans la

12 Et Bell ajoute : « Ceci illustre la difficulté qu'il y a à mettre de côté ses préjugés et à écouter ce quiest réellement dit. Ceci doit aussi vous encourager vous, cher auditeur, à écouter un peu mieux ».

Page 128: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

situation envisagée par EPR, manifestement non-locale. Il n’est simplement pascorrect de dire que la mécanique quantique, telle qu’elle est présentée dans laplupart des manuels, est locale. Seule la partie « équation de Schrödinger » de lathéorie l’est, pas la réduction.

Toute cette discussion montre que l’ambiguïté sur le statut de la fonctiond’onde — moyen de calcul, objet réel ? — entretenue par une certaine traditionphilosophique de type positiviste ou instrumentaliste a rendu difficile lacompréhension de la non-localité.

Comme cette action à distance est instantanée ou, du moins, plus rapide quela vitesse de la lumière, n’entre-t-elle pas en contradiction avec la relativité ? C’estune question assez complexe que je ne vais pas développer — voir [21] pour unediscussion approfondie de ce problème —, mais il est clair qu’il y a un problème.Comme le dit Penrose : « Il y a un conflit entre notre image spatio-temporelle de laréalité physique — même l’image quantique non-locale qui est correcte — et larelativité restreinte ! « » [24]. Mais, comme l’inégalité de Bell est interprétée engénéral de façon incorrecte, le problème du conflit — subtil mais réel — entre non-localité et relativité n’apparaît même pas. Néanmoins, il faut souligner que lasimple existence d’une théorie quantique et relativiste des champs — dont lesprédictions sont les plus spectaculairement vérifiées par l’expérience dans toutel’histoire des sciences — ne permet pas de nier le problème. En effet, la réduction dela fonction d’onde n’est nulle part traitée de façon relativiste. Et c’est via cetteopération que la non-localité s’introduit de façon explicite dans le formalismequantique.

2- Le problème de la mesure et la théorie de Bohm

Il y a plusieurs façons d’énoncer le « problème de la mesure » en mécaniquequantique. La façon la plus traditionnelle est de partir de l’existence desuperpositions macroscopiques, qui suit inéluctablement de la description quantiquedu processus de mesure, c’est-à-dire d’une description qui applique lesraisonnements quantiques aux appareils de mesure eux-mêmes. L’expression« raisonnements quantiques » renvoie à l’idée que la fonction d’onde donne unedescription complète de l’état du système et que son évolution est donnéeuniquement par l’équation de Schrödinger13.

Rappelons brièvement l’argument, qui remonte à von Neumann : supposonsque l’on mesure le spin d’une particule dans une direction donnée. Si la fonctiond’onde de la particule est initialement « up » dans cette direction, et l’appareil demesure initialement dans un état « neutre », la mesure induira un couplage entreles deux systèmes — dont on n’a nullement besoin de connaître les détails — et lerésultat sera une fonction d’onde combinée indiquant que le spin de la particule est 13 C’est-à-dire sans introduire dès le départ la réduction de la fonction d’onde.

Page 129: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

toujours « up », et que l’appareil a détecté une particule ayant un spin « up ». Lamême chose est vraie, mutatis mutandis, pour le spin « down ». Maintenant surgit leproblème : si l’on part d’une particule qui est dans une superposition de spin up etde spin down, alors la simple linéarité des lois d’évolution quantique implique quel’appareil de mesure sera dans une superposition d’état « ayant détecté un spin up »et « ayant détecté un spin down ». Or cela, nous ne l’observons jamais. Pour le dired’une façon un peu brutale, mais correcte, la mécanique quantique fait uneprédiction non ambiguë qui se révèle fausse ; donc, elle doit être rejetée. Néanmoins,vu le succès spectaculaire de la mécanique quantique, il serait déraisonnable de larejeter purement et simplement. Mais il faut la modifier d’une façon ou d’une autre.

On peut, en gros, suivre deux voies pour sortir de cette impasse. L’une, c’estde considérer que l’évolution quantique n’est pas toujours respectée, l’autre, c’est dedire que la fonction d’onde ne décrit pas entièrement le système. On pourrait sansdoute montrer comment les adeptes de l’interprétation de Copenhague se rallient enfait à une de ces deux solutions, en dépit des grandes proclamations philosophiquesqui tentent de nier l’existence même d’un problème. Si l’on soutient par exemplequ’il est irréaliste d’attribuer une fonction d’onde à l’appareil de mesure, cela veutdire que la fonction d’onde ne décrit pas entièrement tous les systèmes physiques.Même chose si l’on soutient une interprétation épistémique de la fonction d’onde,c’est-à-dire que celle-ci représente la connaissance que nous avons du système. Si,par contre, on introduit la réduction de la fonction d’onde, alors on admetimplicitement que l’évolution de Schrödinger n’est pas toujours valable. Idem si l’onintroduit une distinction nette et irréductible entre classique et quantique oumicroscopique et macroscopique.

Si l’on cherche à remplacer l’évolution de Schrödinger par une opération non-linéaire ou stochastique, celle-ci devrait avoir deux propriétés : être suffisammentbien approximée par l’évolution de Schrödinger, lorsqu’on discute d’un petit nombrede particules, de façon à ce que les prédictions de la mécanique quantique restentvraies pour la nouvelle théorie, et se ramener, lorsque l’on s’intéresse à un grandnombre de particules — par exemple, à un appareil de mesure —, essentiellement àla réduction. Vu la difficulté mathématique inhérente au traitement d’équationsnon-linéaires, le fait qu’il n’existe pas aujourd’hui de théories satisfaisantes de cetype ne peut pas être considéré comme un argument très fort contre cettesuggestion. De plus, comme la plupart des physiciens considèrent la mécaniquequantique ordinaire comme acceptable, peu d’essais, en fin de compte, ont été faits.Roger Penrose encourage cette approche au moyen de l’analogie suivante :« Néanmoins, je pense qu’il serait surprenant si la théorie quantique ne devait passubir un profond changement dans l’avenir — vers quelque chose dont cette linéaritéserait seulement une approximation. Il y a certainement des antécédents de ce genrede changements. La puissance et l’élégance de la théorie de la gravitationuniverselle de Newton est en grande partie due au fait que les forces dans cettethéorie s’additionnent linéairement. Mais, avec la relativité générale d’Einstein, onvoit que cette linéarité est seulement une approximation — et l’élégance de la

Page 130: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

9

théorie d’Einstein dépasse même celle de la théorie de Newton » [24]. Signalons qu’àdéfaut d’une théorie non-linéaire, il existe une théorie stochastique, où la fonctiond’onde est réduite aléatoirement, avec une faible probabilité pour un systèmemicroscopique, à tout moment. Mais, quand on considère un grand nombre departicules, comme dans un appareil de mesure, la probabilité d’une réductiondevient grande. Cette théorie, appelée « GRW » d’après les noms de ses auteurs —Ghirardi, Rimini et Weber — est, dans sa formulation actuelle, fort ad hoc, mais anéanmoins le mérite de résoudre le problème de la mesure : les « sauts quantiques »qui se produisent partout et tout le temps sont simplement amplifiés à cause ducaractère nécessairement macroscopique de l’appareil de mesure.

Si l’on veut, au contraire, une théorie où la description complète de l’état dusystème ne se réduise pas à la fonction d’onde, il faut faire attention à différentsthéorèmes qui montrent que donner à un certain ensemble de variables une valeuravant toute « mesure » est tout aussi impossible — et pour des raisons similaires —que d’introduire des variables « cachées » qui sauveraient la localité14.

Il existe néanmoins, depuis 1952, une théorie qui résout le problème de lamesure et échappe à toutes ces impossibilités, de façon très naturelle : la théorie deBohm. Dans cette théorie, la description complète de l’état du système est donnée àla fois par la fonction d’onde habituelle et par les positions de toutes les particules.Ces dernières sont ce que Bell appelle les « beables » de la théorie, c’est-à-dire ce quiexiste, par opposition aux simples observables. La dynamique est donnée par deuxéquations : d’une part, l’évolution habituelle de Schrödinger, qui détermine commentévolue la fonction d’onde et d’autre part l’équation de Bohm, qui détermine commentles particules sont guidées par l’onde.

La théorie est parfaitement déterministe et l’accord avec l’expérience s’obtienten postulant que les positions initiales du système sont distribuées aléatoirement etque cette distribution initiale coïncide avec le carré de la valeur absolue de lafonction d’onde, c’est-à-dire la distribution de Born. La dynamique de la théorie deBohm possède en effet une propriété remarquable, dite d’équivariance, qui signifieque, si la distribution initiale coïncide avec celle de Born, alors elle coïncidera avecelle à tous les temps ultérieurs — pour la nouvelle fonction d’onde obtenue enappliquant l’évolution de Schrödinger à la fonction d’onde initiale. On peutévidemment s’interroger sur la justification du choix de la distribution initiale, quiest une question complexe15. Remarquons néanmoins qu’ici le caractèreapparemment « aléatoire » des résultats expérimentaux s’explique, comme pour dessystèmes dynamiques classiques, par exemple « chaotiques », au moyen d’unehypothèse sur les conditions initiales, alors que, dans l’interprétation traditionnelle,ce caractère aléatoire n’est pas expliqué du tout.

14 Voir [9] pour une discussion plus approfondie de ces théorèmes.15 Voir [11] pour une discussion plus approfondie de cette question.

Page 131: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

10

La théorie de Bohm possède deux autres qualités importantes. D’une part,non seulement elle échappe à tous les théorèmes d’impossibilité sur les variablescachées, mais elle permet de comprendre intuitivement l’origine de ces théorèmes. Iln’y a pas de « variables cachées » dans cette théorie, autres que les positions16. Il n’ya pas de valeur assignée par le système à des opérateurs tels que le moment, le spin,le moment angulaire, etc., valeur qui serait déterminée avant ces interactionsspécifiques avec des dispositifs macroscopiques appelés « appareils de mesure ». Onpeut, dans la théorie de Bohm, analyser comment ces interactions ont lieu17 et voirque le résultat ne dépend pas seulement de l’état complet du système microscopiquemais aussi de la disposition particulière de l’appareil. Donc, toute « mesure » dequelque observable que ce soit, sauf la position, est une interaction authentiqueentre le système et l’appareil. Elle ne révèle pas simplement des propriétéspréexistantes du système et ne devrait donc pas être appelée « mesure ». Onpourrait aussi dire que — suprême ironie de l’histoire — la théorie de Bohm rendconcrète et mathématiquement précise l’intuition de Bohr concernant l’impossibilitéde séparer le système et l’appareil.

La non-localité est, d’autre part, aussi facile à comprendre dans la théorie deBohm. L’observation de base est que la fonction d’onde est une fonction définie surl’espace de configuration et non, comme, par exemple, le champ électromagnétique,sur l’espace physique. Considérons deux particules et supposons qu’il y ait unpotentiel localisé dans le voisinage de l’origine, et correspondant à l’introductiond’un dispositif de mesure agissant sur la première particule. L’évolution de lafonction d’onde sera affectée par le potentiel via l’équation de Schrödinger ;cependant, la fonction d’onde détermine les trajectoires des deux particules vial’équation de Bohm. Donc, la trajectoire de la seconde particule sera aussi(indirectement) affectée par le potentiel (c’est-à-dire le dispositif de mesure), mêmes’il arrive qu’elle soit très éloignée de l’origine. Ceci donne une certainecompréhension de ce qui se passe quand la polarisation ou les « mesures » du spinsont accomplies sur des paires (anti-)corrélées. Les résultats, comme le montre Bell,ne sont pas déterminés avant l’interaction avec un dispositif de mesure. Et c’estpourquoi les parfaites corrélations sont dues à une forme subtile de« communication » entre les deux côtés de l’expérience. Cette dernière est renduepossible parce que la fonction d’onde met en connexion des parties distantes del’univers grâce à l’équation de Bohm.

16 Appeler les positions des variables cachées est, comme dit Bell, une idiotie héritée de l’histoire ([3],p. 163). On appelle traditionnellement variables cachées tout ce qui ne se réduit pas à la fonctiond’onde. Mais les positions sont les seules variables qui sont réellement visibles : la vitesse d’unevoiture se mesure par la position d’une aiguille sur un cadran et on peut facilement voir qu’engénéral toutes les « mesures » peuvent être ramenées à des mesures de positions. Par contre, lafonction d’onde est « cachée », en ce sens que nous inférons ses propriétés à partir des mesures faitesantérieurement sur le système.17 Voir [9], [16] [3], chap. 17 pour plus de détails.

Page 132: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

11

Une remarque finale : les objections les plus courantes contre la théorie deBohm concernent son caractère « métaphysique » et « non-local, donc incompatibleavec la relativité ». Je laisse de côté la première objection, qui reflète une certaineincompréhension de type « positiviste » concernant la nature des théories physiques.Mais la seconde objection est étrange : après tout, ce que le théorème de Bellmontre, c’est qu’une théorie qui fait des prédictions expérimentales correctes doitêtre non-locale. Etre non-locale devrait être considéré, pour une théorie, comme unevertu indispensable plutôt que comme un défaut. Et, en ce qui concerne lacompatibilité avec la relativité, les problèmes rencontrés par la théorie de Bohmsont essentiellement les mêmes que ceux que rencontrerait toute théorie qui feraitdes prédictions correctes18.

3- Conclusions

Je laisserai le dernier mot à John Bell, l’un des plus lucides défenseurs de lathéorie de Bohm. Il explique que, lorsqu’il était étudiant, il avait lu le livre de Born[6], où, sur la base d’une mauvaise compréhension de la signification du théorèmesur les variables cachées de von Neumann, il était déclaré qu’une théoriedéterministe sous-jacente à l’algorithme quantique était impossible19. Mais, commeil le dit, « en 1952, je vis l’impossible accompli » ; et c’était la théorie de Bohm. Ilcontinue : « Mais alors pourquoi Born ne m’avait pas parlé de cette « onde-pilote » ?Ne serait-ce que pour signaler ce qui n’allait pas avec elle ? Pourquoi von Neumannne l’a pas envisagée ? Plus extraordinaire encore, pourquoi des gens ont-ilscontinuer à produire des preuves d’impossibilité, après 1952, et aussi récemmentqu’en 1978 ? Alors que même Pauli, Rosenfeld, et Heisenberg, ne pouvaient guèreproduire de critique plus dévastatrice de la théorie de Bohm que de la dénoncercomme étant « métaphysique » et « idéologique » ? Pourquoi l’image de l’onde-piloteest-elle ignorée dans les cours ? Ne devrait-elle pas être enseignée, non pas commel’unique solution, mais comme un antidote à l’auto-satisfaction dominante ? Pourmontrer que le flou, la subjectivité, et l’indéterminisme, ne nous sont pas imposés deforce par les faits expérimentaux, mais proviennent d’un choix théoriquedélibéré ? »20

18 Voir [3] (chap. 19), [12], [21] pour une discussion plus détaillée de la relativité et des théories duchamp quantique bohmien.19 Voir [17] pour de nombreux exemples d’incompréhensions de la signification de ce théorème,incompréhensions qui remontent à von Neumann lui-même.20 Bell, [3] p. 160.

Page 133: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

12

Références

1- A.Aspect, J.Dalibard, G.Roger, Phys.Rev.Lett. 49, 1804 (1982).2- J.S.Bell, « Bertlmann’ socks and the nature of reality », Chapitre 16 dans [3].3- J.S.Bell, Speakable and Unspeakable in Quantum Mechanics, Cambridge University

Press, Cambridge 1987.4- J.Bernstein, Quantum Profiles, Princeton University Press, Princeton (1991).5- D. Bohm, “A suggested interpretation of the quantum theory in terms of “hidden

variables”, Parts 1 and 2, Phys. Rev. 89, (1952) p. 166-193.6- M. Born, Natura1 Philosophy of Cause and Chance, Clarendon, Oxford (1949).7- M.Born (ed.), The Born-Einstein Letters, Macmillian, Londres (1971).8- H.Broch, Au cœur de l’extraordinaire, l’Horizon chimérique, Bordeaux (1992).

9- M. Daumer, D.Dürr, S.Goldstein, N.Zanghi, « Naive realism about operators”,Erkenntnis 45, (1996) 379-397, quant-ph/9601013.

10- P.C.W.Davies, J.R.Brown (eds), The Ghost in the Atom (BBC interviews), CambridgeUniversity Press, Cambridge 1989.

11- D. Dürr, S. Goldstein, N. Zanghi, “Quantum equilibrium and the origin of absoluteuncertainty”, J. Stat. Phys. 67 (1992) 843-907

12- D. Dürr, S. Goldstein, K. Münch-Berndl, N. Zanghi, „Hypersurface Bohm- DiracModels“, Phys. Rev. A 60, (1999) 2729-2736, quant-ph/9801070

13- A. Einstein, B. Podolsky, N. Rosen, “Can quantum mechanical description of realitybe considered complete?”, Phys. Rev. 47 (1935) 777-780.

14-M. Gardner, The New Age, Notes of a Fringe Watcher, Prometheus Books, Buffalo(1988).

15- M. Gell-Mann, The Quark and the Jaguar, Little, Brown and Co., London (1994).16- S. Goldstein, Bohmian, “Mechanics and the Quantum Revolution", Synthese

107,145-165 (1996).17- S. Goldstein, “Quantum Philosophy: The Flight from Reason in Science, contribution

to The Flight from Science and Reason", P. Gross, N. Levitt, and M.W.Lewis, eds.,Annals of the New York Academy of Sciences 775,119-125 (1996), quant-ph/9601007

18- S. Goldstein, “Quantum theory without observers”, Physics Today, March 1998(p. 42-46)-April 1998 (p. 38-42) ; voir aussi Physics Today, Letters, February 1999(p. 11).

19- D. Greenberger, M.Horne, A.Shimony, Z.Zeilinger, Am.J. of Phys. 58, 1131 (1990).20-N. Herbert, Quantum Reality, Anchor Press, Garden City (1985).21-T. Maudlin, Quantum Non-Locality and Relativity, Blackwell, Cambridge (1994).22-D. Mermin, Physics Today, Avril 1985.23-D. Mermin, Boojums AlI the Way Through, Cambridge University Press, Cambridge

1990. 22 -A.Pais, Rev.Mod.Phys. 51, 863 (1979).24-R. Penrose, The Emperor’s New Mind, Oxford University Press, Oxford 1989.25-H. Stapp, Nuovo Cimento 40b, 191 (1987).

Page 134: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

4- Bohm et ses principes ampliatifs de sélection théorique

Michel Bitbol

Incontestablement la théorie à variables cachées, formulée par Bohm en1952, est empiriquement équivalente à la mécanique quantique standard de1926, et elle est donc parfaitement acceptable de ce point de vue, comme l’asouligné Jean Bricmont. Sa simple existence a démenti très tôt les théorèmes ditsd ’« impossibilité » des théories à variables cachées, dérivés de celui de vonNeumann. On doit, à partir de là, admettre, avec Bernard d’Espagnat, que « leformalisme quantique est essentiellement neutre en ce qui concerne la questiondes variables cachées »1. Mais cette position de principe une fois admise, jevoudrais faire valoir quelques raisons qui me conduisent à ne pas accorder créditaux contenus descriptifs de la théorie que Bohm a formulée en 1952. Leur seulintérêt, selon moi, est celui d’un contre-exemple opposé aux dogmes théoriquesdes années 1930 ; un simple contre-exemple illustratif, qui n’a pas les moyensd’atteindre à son tour à une position dogmatique, c’est-à-dire de prétendre fournirune représentation raisonnablement fidèle du réel.

Ma première raison de ne pas prendre au sérieux les contenus descriptifsde la théorie de Bohm de 1952 tient à son autocritique en partie involontaire.Poussée jusqu'à ses ultimes conséquences, la théorie de Bohm de 1952 neparvient en effet même pas à respecter l'esprit de son propre programme,initialement atomiste. Au premier degré, elle représente bien le monde comme unensemble de corpuscules séparés et dotés de propriétés. Mais la non-localité et lecontextualisme conduisent à faire disparaître la totalité des conséquences decette représentation. Les corpuscules sont séparés, mais ils s’influencentinstantanément à distance; les corpuscules ont des propriétés, mais celles-ci sontaltérées de façon non-contrôlable par les appareils qui servent à les révéler.L’analyse par la pensée, permise par la théorie de Bohm, ne peut avoir, en raisonde sa structure même, aucune conséquence en termes d’analyse effective aulaboratoire.

Assez récemment, on a pu par ailleurs montrer que les particules postuléespar Bohm ne portaient pas leurs propriétés au point de l’espace où elles sontcensées se trouver. Des résultats d’expériences d’interférométrie des neutrons2,dans lesquelles l’interféromètre est tantôt parallèle tantôt orthogonal au champde gravitation, ne peuvent en effet être pris en compte qu’à condition d’admettrequ’entre la préparation et la détection, la masse des neutrons est répartie dans

1 B. d'Espagnat, Le réel voilé, Fayard 1994 p. 72. La phrase citée est assortie d'un correctif: « (tantque l'hypothèse de complétude n'y est pas faite) ». C'est-à-dire que le formalisme de la mécaniquequantique n'est neutre en ce qui concerne la question des variables cachées qu'à condition de voirdans ce formalisme non pas une description complète de « ce qui est » (ce qui excluraitévidemment tout supplément descriptif), mais seulement un instrument prédictif ou unedescription lacunaire.2 H.R. Brown, C. Dewdney, & G. Horton, « Bohm particles and their detection in the light ofneutron interferometry », Founations of Physics, 25, 329 (1995).

Page 135: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

tout le volume de l’interféromètre. Si l’on veut supposer malgré cela que lesneutrons sont bien localisés à tout instant, comme le veut la théorie de Bohm de1952, il faut admettre qu’ils ne portent pas en permanence leur masse là où ils setrouvent. Dépouillées de leur vêtement de propriétés, les particules sont ainsiravalées au rang de « bare particulars », c’est-à-dire d’« individus dénudés ». Pluson avance dans la recherche, et plus les éléments de représentations classiquesque véhiculait la théorie de Bohm en 1952 deviennent résiduels. À tel point quecette théorie peine de plus en plus à satisfaire au besoin de figuration concrètedes processus intermédiaires (entre la préparation et la détection) qui était saraison d’être au départ.

Passons à une autre difficulté. On a constaté que, dans le cadre de lathéorie de Bohm de 1952, la présence d’une particule n’est pas toujoursnécessaire pour qu’un détecteur réponde comme s’il venait d’en recevoir une. Ils’agit là du phénomène dit des « fooled detectors », c’est-à-dire des « détecteurstrompés ». Or, après la perte de son pouvoir de rassembler des propriétés commela masse ou la charge électrique, la seule fonction qui semblait encore pouvoirêtre assignée à une particule localisée traitée comme « individu dénudé » étaitd’expliquer la localité des impacts sur des écrans détecteurs. Avec le phénomènedes « détecteurs trompés », des impacts localisés peuvent survenir sans aucuneparticule localisée pour les expliquer. Non content d’être incertain, le contenudescriptif de la théorie de Bohm s’avère explicativement inutile.

Au fond, sous la couche superficielle d’une représentation corpusculaire-atomiste rémanente, l’approche proposée par Bohm en 1952 manifeste donc toutautant la crise de cette représentation que les versions standard de la mécaniquequantique. Bohm et quelques-uns des partisans de sa théorie ont fini parl’admettre et par en tirer des enseignements drastiques3. Ainsi, suivant le Bohmdes années 1970-80, une trace dans le volume de quelque chambre à bulles estseulement un « [...] aspect [d’un processus global sous-jacent] apparaissant dansla perception immédiate [...]. La décrire comme la trace d’une « particule » revientà admettre, en plus, que l’ordre primaire pertinent du mouvement est semblableà celui qui se manifeste dans l’aspect immédiatement perçu »4. La nouvelle thèsefondamentale de Bohm est que sous l'ordre explicite des mouvements d’allurecorpusculaire dans l'espace-temps, se tient un ordre implicite holistique et nonspatio-temporel. «Le mot « électron », insiste Bohm, ne devrait pas être considérécomme davantage qu’un nom par lequel nous attirons l'attention sur un certainaspect de l'holo-mouvement [...] — de telle sorte que ces « particules » ne sontplus considérées comme autonomes et comme existant séparément »5.SelonBohm, par conséquent, les soi-disant «particules» ne doivent plus être considéréescomme autonomes et existant séparément; notre discours en termes departicules, insiste-t-il, est une manière de s’égarer ontologiquement en attachantune signification substantielle aux apparences spatio-temporelles fragmentaires

3 Pour un commentaire sur ce point, voir B. d'Espagnat, Le réel voilé, op. cit. p. 3434 D. Bohm, Wholeness and the implicate order, Ark paperbacks, 1983, p. 1555 Ibid

Page 136: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

déployées à partir de l’ordre implicite. La représentation initiale des particules aabouti à sa propre négation.

Une autre raison que j’ai de ne pas prendre au sérieux le contenu descriptifd’une théorie à variables cachées comme celle de Bohm est qu’elle est« métaphysique » au sens le plus aventureux, pré-kantien, du terme. Je sais quecette critique a l’air surannée, et empreinte d’un esprit positiviste que JeanBricmont récuse par avance, mais elle peut facilement être étayée avec desarguments plus convaincants que ceux dont se contentaient les membres del’école de Copenhague. Tout d’abord, je voudrais récuser un contre-argumentsous-jacent à l’exposé de Jean Bricmont. Il est exact, comme il l’a souventsouligné, que les vecteurs d’état ne sont pas plus directement accessibles àl’expérience que ne le sont les potentiels quantiques ou les trajectoirescorpusculaires bien définies de la théorie de Bohm de 1952. Mais, dansl’interprétation littérale de la mécanique quantique, les vecteurs d’état n’ontaucune prétention à décrire quelque processus naturel que ce soit. Seulement àpermettre le calcul de la probabilité d’un certain résultat expérimental à la suited’une préparation donnée. Il est inévitable qu’un outil de calcul ne soit pasaccessible à l’expérience en tant que tel ; il est en revanche choquant decommencer par postuler de véritables processus physiques se déroulant dans lanature pour ensuite déclarer qu’ils sont principiellement, et en vertu de la théoriemême qui les postule, inaccessible à l’expérience. Or, même si la valeurinstantanée des variables impliquées dans la théorie de Bohm n’est pas vraimentinaccessible — contrairement à ce que suggère l’expression « variables cachées »—, le suivi point par point d'une trajectoire « indépendante » est principiellementexclu par le contextualisme de cette théorie, et l'utilisation des influences non-locales pour transmettre de l'information instantanément à distance est renduimpossible par l'incontrôlabilité, également principielle, des conditions initiales.La théorie de Bohm est dès lors « stérile »6, puisqu'elle ne donne lieu à aucuneprédiction supplémentaire par rapport à la mécanique quantique standard. Bohmet Hiley eux-mêmes ont admis que leur « théorie » n’était en fait qu’une« interprétation » de la mécanique quantique, en ce sens qu’elle ne donne lieu àaucune prédiction distincte de cette dernière. Et seuls quelques rares physicienscontinuent à affirmer, avec des arguments à ma connaissance insuffisants, qu’ilexiste des « expériences cruciales » permettant de trancher entre la théorie deBohm de 1952 et la mécanique quantique standard.

À partir de là, on s’aperçoit que la pluralité des théories à variablescachées et des représentations associées, alors même qu'aucun critère empiriquene permet de trancher entre elles, apparaît n'avoir aucune chance d'être un jourréduite. Quelle raison a-t-on, dans ces conditions, de désigner l'une d'entre ellesplutôt qu'une autre comme représentation raisonnablement fidèle de la nature ?Comment esquiver le problème de la sous-détermination des théories si celles-ciont pour corrélat l’absence non seulement présente mais future de critère dedécision ? On pourrait bien sûr écarter l’argument de la sous-détermination sitout ce qu’on attendait d’une théorie comme celle de Bohm était une sorte de

6 B. d'Espagnat, Le réel voilé, op. cit. p. 372

Page 137: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

béquille de l’imagination. Là où la mécanique quantique standard est silencieuse,la théorie de Bohm nous offre au moins une image commode ; elle nous fournit auminimum une figuration de quelque chose qui pourrait se passer entre lapréparation et la détection, tout en restant compatible avec la capacité prédictivede la mécanique quantique standard. Et peu importe au fond que cette image soitseulement une fiction, et même une fiction parmi beaucoup d’autres égalementplausibles, pourvu que la fiction soit commode et qu’elle aide le physicien. Leproblème est que cet aveu d’un statut de pure convenance est rarement fait parles partisans de l’interprétation de Bohm 1952. Que ce soit intentionnellement ouà leur corps défendant, ils passent facilement des énoncés figuratifs aux énoncésontologiques. Lors d’une réunion similaire, j’ai été par exemple un peu surprisd’entendre Jean Bricmont nous dire que la théorie de Bohm nous indique ce quiarrive dans le monde physique. N’aurait-il pas été plus prudent de dire que cettethéorie nous aide à faire des calculs comme si nous savions ce qui arrive dans lemonde physique ? Et après tout, lorsqu’une image se révèle efficace danscertaines circonstances, l’assortir d’un comme si ne lui enlève pas grand-chose, sice n’est peut-être le pouvoir mobilisateur des illusions.

À côté de ces critiques vigoureuses, je voudrais à présent souligner qu’ensituation de forte sous-détermination, le choix de l’une ou de l’autre des théoriesen présence peut se justifier par une argumentation rationnelle. En particulier, lechoix de la théorie de Bohm est accessible à une justification rationnelle, même sicette justification ne saurait se réduire à l’affirmation peu crédible d’atteindreune représentation fidèle de la réalité. Plusieurs philosophes des sciences ontainsi souligné, à l’encontre du relativisme, ou du programme fort de la sociologiede la connaissance scientifique, que les critères de choix de théories sous-déterminées ne reposaient pas exclusivement sur des préférences personnelles oudes orientations culturelles. Ces critères peuvent d’abord impliquer des valeursgnoséologiques largement partagées, comme le suggère H. Putnam7. Ils peuventensuite se développer en ce que Larry Laudan appelle des « principesampliatifs », c’est-à-dire des règles rationnelles de conduite et d’élaborationthéorique qui vont au-delà de la stricte nécessité de sauver les phénomènes. Lesprincipes ampliatifs, comme leur nom l’indiquent, amplifient le champ du débatsur la valeur d’une théorie, en l’étendant au-delà de la stricte demanded’adéquation empirique, pour y inclure des exigences de nature intellectuelle.Aussi bien les valeurs, lorsqu’elles sont reconnues et thématisées, que lesprincipes ampliatifs lorsqu’ils sont explicités, sont accessibles à la discussioncontradictoire, et peuvent faire l’objet d’accords reposant sur des raisonslargement reconnues comme acceptables, contrairement aux simplesdéterminismes culturels ou subjectifs. Notre but devient alors de reconnaître lanature des valeurs et des principes ampliatifs susceptibles de favoriser le choixde la théorie de Bohm au détriment des théories quantiques standard, etréciproquement. Cela nous permettra de comprendre qu’on puisse choisird’adhérer au programme de Bohm de 1952 en dépit de ses défauts relevés ; et à

7 H. Putnam, Realism with a human face, Harvard University Press, 1990, trad. fr. Le réalisme àvisage humain, Seuil, 1993

Page 138: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

l’inverse cela me permettra d’exposer aussi clairement que possible mesarguments à l’encontre d’une telle adhésion.

Quelles valeurs guident ceux des chercheurs qui, évitant de suivre Bohmdans son ultime aboutissement moniste, continuent à voir dans sa théorieoriginale de 1952 un point d'appui crédible pour une représentationcorpusculaire-atomiste du monde ? Quels sont les principes ampliatifs qui lesconduisent à accepter des notions aussi baroques que celle d’entités individuellesdépouillées de leurs propriétés, ou encore de détecteurs qui se déclenchent sansparticules alors même que l’on tient ordinairement le déclenchement ponctuel etdiscret de tels détecteurs pour une « preuve » de l’existence de particules ? Ons’aperçoit vite, à la lecture de leurs textes que la principale de ces valeurs, cellequi domine toutes les autres et qui impose de renoncer à certaines d'entre elles,est ici l'exigence de continuité historique avec les théories de la physiqueclassique, voire avec l'attitude ontologique naturelle du sens commun. Cetteorientation est exprimée avec beaucoup de clarté par Bohm et Hiley eux-mêmes,lorsqu’ils se font les avocats de la version initiale de la théorie de Bohm : « Il estessentiel de montrer, écrivent-ils, que la mécanique quantique contient un niveauclassique qui n'est pas présupposé comme dans l'approche habituelle, mais quis'ensuit comme une possibilité à l'intérieur de la théorie quantique elle-même »8.Dans l'approche habituelle, c’est-à-dire celle qui est dérivée des idées de Bohr, lemode classique de description est en effet présupposé afin de prendre en compteles aspects manifestes du fonctionnement des appareillages, et d'interpréter entermes de mesures de variables certains événements macroscopiques qui arriventà ces appareillages. Réciproquement, les prédictions quantitatives de la physiqueclassique sont retrouvées comme approximations à grande échelle des théoriesquantiques. Ceci permet d'établir un double lien affaibli, mais suffisant tantqu'on s'en tient à une attitude d'instrumentalisme méthodologique, entre laphysique quantique et la physique classique.

Par contraste, la théorie de Bohm a pour ambition d'aller au-delà de cesimple accord opératoire et quantitatif, et de maintenir une relation parcontinuité des concepts et des représentations. L’un des avantages de cettecontinuité des concepts et des représentations, comme l’a souligné à juste titre J.Bricmont, est de maintenir du même coup une sorte d’unité figurative etdiscursive entre les sciences physiques et les sciences non-physiques. Dans lacascade des réductions allant d’un niveau d’organisation à l’autre, les sciences dela nature utilisent presque toutes le même langage de propriétés intrinsèques, deprocessus spatio-temporels se déroulant d’eux-mêmes dans la nature, face à unsujet expérimentateur qui ne fait que les mettre en évidence. Une physique duphénomène bohrien contextuel, et de la pure prédiction de ce type de phénomène,fait exception, et brise l’élan des réductions. Alors que la physique était censéefournir le niveau de base de l’explication scientifique, voire son ultime fondement,elle finit, lorsqu’on s’en tient à une mécanique quantique standard d’espritbohrien, par renvoyer l’image en miroir du niveau le plus élevé, c’est-à-dire celui

8 D. Bohm & B. Hiley, The undivided universe, Routledge, 1993, p. 160

Page 139: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

de l’activité humaine. Elle boucle une sorte de cercle des sciences, au lieu deprendre sa place dans une construction hiérarchique allant de la base physiqueaux efflorescences chimiques, biochimiques, cellulaires, pluri-cellulaires, neuro-physiologiques, et sociales. La théorie de Bohm de 1952 permetincontestablement d’éviter cela en parlant elle aussi le langage des propriétésintrinsèques et des processus spatio-temporels autonomes. Cela constitue unargument incontestable en faveur de la théorie de Bohm, l’expression d’unevaleur d’homogénéité du système des sciences, la traduction d’un principeampliatif de continuité historique et architectonique des concepts scientifiques.

Cependant, à mes yeux de philosophe de la physique d’orientation néo-kantienne, cet argument n’est pas satisfaisant. Car au fond, la brusque cassurede continuité dans l’échelle des concepts qu’a imposé la mécanique quantiquestandard peut être vue comme un avantage plutôt qu’un défaut. L’avantage deconduire à s’interroger de façon plus impérative que jamais auparavant sur lesconditions de possibilité d’un discours en termes d’objets spatio-temporels et depropriétés intrinsèques. Ce discours, il ne faut pas l’oublier, est une véritableconquête obtenue par le sujet connaissant au moyen d’un ensemble de procédésque j’appellerai avec Kant des procédés constitutifs. Il se trouve que les procédésconstitutifs courants aboutissant à des objets situés dans l’espace ordinaire, detype corps matériels dotés de propriétés locales, ont fonctionné à une bonneapproximation près jusqu’à des échelles assez petites proches de celles qu’explorela biochimie. Mais en deçà de cette échelle, on s’aperçoit qu’ils n’opèrent plus,qu’ils ne permettent plus d’assurer la synthèse des phénomènes ; ou du moinsqu’ils ne l’assurent, comme dans les théories à variables cachées, qu’au prix del’adjonction d’un liant artificiel : celui de processus inter-phénoménauxprincipiellement inaccessible à l’expérience. Cet obstacle rencontré par laprocédure la plus courante de constitution devrait à mon sens servir derévélateur à toutes les sciences plutôt qu’être dissimulé par une théorie commecelle de Bohm de 1952. Elle devrait les inciter à remettre en question à tous lesniveaux la théorie dualiste et représentationnaliste de la connaissance, àchercher dans quelles circonstances et à quelles conditions particulières elledevient à peu près acceptable plutôt que de la prendre comme une évidence ouune donnée première du monde réel. Des travaux de biologie et de sciencescognitives sur des théories non-représentationnaliste de la connaissance, commeceux de Francisco Varela, montrent que ce tournant est déjà pris.

Le principal argument ampliatif en faveur de la théorie de Bohm de 1952ayant été discuté, je voudrais à présent me tourner vers deux argumentsampliatifs en faveur des théories quantiques standard. Le premier est la valeurde simplicité et d’unité conceptuelle à l’intérieur de la physique. Nous devonsremarquer d’abord à ce propos que la théorie de Bohm de 1952 implique derenoncer à l'unité formelle des théories quantiques. Bohm et Hiley retiennent eneffet deux sortes d'étants et développent deux sortes de formalismes et dereprésentations complètement différents, les uns pour les fermions et les autrespour les bosons. Les fermions sont traités par la théorie de 1952 comme descorpuscules pilotés par un potentiel quantique non-local. En revanche, d’après

Page 140: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

des travaux ultérieurs de Bohm, les bosons ne peuvent en aucun cas être traitésde la même façon si l’on veut obtenir des prédictions empiriquement adéquates.

L'analyse des motivations de ce renoncement à l’unité conceptuelle de laphysique microscopique est particulièrement instructive. La théorie quantiquedes champs standard, avec sa notion caractéristique de niveau quantifiéd'excitation d'un milieu vibratoire, est applicable aussi bien aux fermions qu'auxbosons moyennant une altération algébrique mineure : le remplacement desrelations de commutation (pour les bosons) par des relations d'anti-commutation(pour les fermions). Les différences de comportement entre fermions et bosons,qui font tenir couramment les premiers pour des « éléments constituants de lamatière » et les seconds pour des « médiateurs d’interactions », se résolvent ainsidans un schéma algébrique élargi ; et le sentiment largement partagé chez lesphysiciens est que ces différences pourraient se résoudre de façon encore plusradicale par le biais des opérations de supersymétrie, aptes à transformer lesfermions en bosons (ou vice-versa). La théorie quantique des champs garantitdonc un remarquable niveau d'unité formelle, et tend (à travers le concept desupersymétrie) vers un niveau d’unité encore plus élevé.

Bohm et Hiley le reconnaissent. Ils montrent de surcroît comment, enadoptant les intensités de champs comme seuls étants pour le cas des bosons, ilest tout à fait possible d'expliquer tous les phénomènes discontinushabituellement tenus pour des effets corpusculaires sans jamais faire intervenirle moindre corpuscule. L’explication en question fait appel à des processus non-linéaires de concentration instantanée de l’énergie auparavant dispersée dans lechamp, au moment de son interaction avec un absorbeur. Elle reprend, dans uncontexte différent, une idée évoquée par Einstein en 1909 comme alternativepossible à l’hypothèse des photons, puis immédiatement rejetée par lui en raisond’un argument d’implausibilité : l’idée de faire appel, pour rendre compte desprocessus d’absorption, à une re-concentration d’énergie ondulatoire qui soit lesymétrique temporel de la dispersion d’énergie ondulatoire constatée lors desprocessus d’émission9. « C'est, concluent Bohm et Hiley, la distribution de typeondulatoire des étants de champs qui détermine les manifestations de typecorpusculaire »10.

La question que l'on se pose à présent est la suivante : puisque tous leseffets prétendument corpusculaires des bosons peuvent être pris en compte parune théorie des champs, pourquoi ne pas étendre ce genre de théorie à l'ensembledes phénomènes, aussi bien fermioniques que bosoniques ? Pourquoi ne pasmettre à profit l’unité formelle et les projets de complète unité structurale de lathéorie quantique des champs, pour généraliser l’explication des discontinuitésapparentes par un processus de concentration locale instantanée de l’énergie d’unchamp ontologiquement interprété ? Plusieurs sortes de réponses à cette question

9 A. Einstein, « L’évolution de nos conceptions sur la nature et la constitution du rayonnement »(1909), dans A. Einstein, Oeuvres I, Quanta, Seuil, 1989. Voir L. Soler, Emergence d’un nouvelobjet symbolique : le photon, Thèse de l’université Paris I, Décembre 199710 D. Bohm & B. Hiley, The undivided universe, op. cit. p. 231

Page 141: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

ont été apportées par Bohm, mais la plus nette se trouve dans un article deBohm, Hiley et Kaloyerou de 1987 : « si nous considérons les fermions comme deschamps, ils obéiraient à des relations d'anti-commutation qui n'ont pas de limiteclassique [...] »11. En d’autres termes, une éventuelle théorie des champsfermioniques serait privée de la relation de continuité forte avec la physiqueclassique qui est adoptée comme principe ampliatif dominant par la plupart despartisans de la théorie de Bohm, dans sa version 1952 élargie par l’introductiond’étants de champ. Cela dit, l’histoire ne s’arrête pas là. Dans une discussion quia eu lieu il y a quelques semaines à Londres, Basil Hiley, le collaborateur le plusdirect de Bohm et son successeur à Birbeck College, m’a appris qu’il était prèsd’obtenir une unification des concepts et des représentations en admettant,comme je l’ai suggéré précédemment, que, comme les Bosons, les Fermions seréduisent aussi à des concentrations sporadiques et instantanées d’un champ.Autrement dit, le principe ampliatif d’unité conceptuelle interne à la théoriephysique la plus avancée a fini par prévaloir sur le principe ampliatif decontinuité historique. Et le résultat de cette substitution de principe ampliatif estl’élimination complète de la représentation avancée en 1952 : celle d’un mondefait de corpuscules pilotés par une onde non-locale.

Un second principe ampliatif me conduit au choix de ne pas adopter lathéorie de Bohm de 1952. Ce principe est, si l’on veut, une version sophistiquéedu rejet d’un excès de spéculation métaphysique : il consiste à rechercher lathéorie dont le surplus de contenu descriptif est minimal par rapport à ce qui estindispensable pour rendre compte des phénomènes. En d’autres termes, ilconduit à se fixer comme norme un étayage empirique maximal des élémentsconstitutifs d’une théorie physique. Un exemple de cette démarche a étédéveloppé par Clark Glymour12, à propos du rôle que joue la géométrie enrelativité générale. Reichenbach avait montré dans le passé qu’il est possible derendre compte des phénomènes de gravitation prévus par la relativité généralesans nécessairement utiliser une géométrie riemanienne. N’importe quelle autregéométrie ferait l’affaire à condition d’introduire en plus des forces universellesde valeur appropriée. Il semble donc y avoir sous-détermination de la géométriepar l’expérience. Mais selon Glymour, cette sous-détermination est une illusion.Son argument principal a trait à l’évaluation de ce qu’il appelle la confirmationd’une théorie par l’expérience. Plusieurs théories peuvent être empiriquementéquivalentes au sens minimal où elles rendent compte des mêmes phénomènes,sans pour autant être aussi bien confirmées les unes que les autres parl’expérience. Une théorie est moins bien confirmée qu’une autre, empiriquementéquivalente au sens minimal, si elle comporte davantage d’hypothèses qui ne sontpas directement testables expérimentalement. Ce surplus d’hypothèses la rendinférieure à sa rivale, en dépit de sa capacité à prédire les mêmes phénomènesqu’elle. Or, comme le montre Glymour, les théories non-standard de lagravitation qui, contrairement à celle d’Einstein, écartent l’emploi de la

11 D. Bohm, B.J. Hiley, & P.N. Kaloyerou, « An ontological basis for quantum theory », PhysicsReports, 144, 321-375, 198712 C. Glymour, « The epistemology of geometry », Noûs, XI, 227-251, 1977

Page 142: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

9

géométrie riemannienne, comportent un surplus d’hypothèses non-testables.Elles supposent un partage « […] du champ métrique dynamique de la relativitégénérale en une métrique minkowskienne fixée, et un tenseur de champgravitationnel qui, bien entendu, n’est pas fixe mais dynamique, c’est-à-diredépendant de la distribution de matière et de rayonnement”13. Mais du fait de laflexibilité de cette procédure de partage, la métrique relevant de relativitérestreinte et le tenseur de champ gravitationnel ne sont pas univoquementdéfinis par le champ métrique dynamique dont ils dérivent. Chacun d’entre euxséparément apparaît en surplus, parce que seule leur combinaison estexpérimentalement testable. Les théories non-standard, minkowskienne, de lagravitation, conclut Glymour, sont donc moins bien confirmées que la relativitégénérale qui fait appel à la géométrie riemannienne. Sous condition d’adopter leprincipe ampliatif de confirmation empirique maximale des contenushypothétiques d’une théorie, la sous-détermination de la géométrie physique parl’expérience est donc levée.

Il me semble qu’il en va de même en physique microscopique.Manifestement, entre la théorie de Bohm de 1952 et la mécanique quantiquestandard, le principe de confirmation empirique maximale conduit à choisir laseconde, bien plus économique en contenus non directement testablesexpérimentalement. Ce principe a d’ailleurs très bien pu jouer implicitement àl’origine historique de la mécanique quantique. Il suffit de lire l’article queSchrödinger consacra en 1926 à l’équivalence entre la mécanique matricielle deHeisenberg et sa mécanique ondulatoire pour se convaincre que le principeampliatif de confirmation optimale était déjà connu et apprécié à l’époque. Dansla mesure où les deux théories rendent compte des mêmes phénomènes,Schrödinger se demande si l’une n’est pas supérieure à l’autre sur un autre planque celui de la stricte adéquation empirique. Beaucoup de physiciens de l’époqueont pensé que la mécanique ondulatoire était supérieure à la mécaniquematricielle en ceci qu’elle fournit une image des processus atomiques.Schrödinger lui-même avait été guidé par cette valeur de la figuration imagée. Cen’est pourtant pas sur cet argument qu’il s’attarde. Bien au contraire, il sedemande si la mécanique matricielle ne pourrait pas être tenue pour supérieure àla mécanique ondulatoire sur un critère ampliatif d’économie. Ayant soulevé cettequestion, cependant, il lui apporte une réponse clairement négative. Les deuxthéories sont strictement et bi-univoquement équivalentes, et la mécaniqueondulatoire n’est donc pas moins économique que la mécanique matricielle. Voicicomment Schrödinger annonce sa conclusion : « Les fonctions propres (de lamécanique ondulatoire) ne constituent pas une sorte d’« enveloppe charnelle »particulière et arbitraire recouvrant le squelette nu des matrices et satisfaisantnotre besoin d’images intuitives ». Et il ajoute aussitôt après que si c’était le cas,cela « [...] confèrerait aux matrices une supériorité effective du point de vue de lathéorie de la connaissance ». Ici, Schrödinger utilise clairement le principeampliatif de confirmation maximale — ou d’économie en hypothèsessupplémentaires non confirmables — pour rejeter par avance des théories quin’auraient pour avantage que d’ajouter une chair interprétative au squelette

13 Ibid.

Page 143: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

10

théorique empiriquement adéquat. Cela suffit à lever la sous-détermination, enla défaveur de théories comme celle de Bohm de 1952. Cela mine égalementl’argument des auteurs qui affirment que le choix de la mécanique quantiquestandard, dotée de l’interprétation orthodoxe, n’a été que l’effet d’une contingencehistorique. En effet, à supposer même que l’interprétation de l’onde-pilote de deBroglie ait été viable avant les interprétations de Bohr puis de von Neumann,l’application du principe ampliatif de confirmation maximale aurait très bien puconduire à l’adoption après coup de l’interprétation orthodoxe au détriment decelle de l’onde-pilote.

Page 144: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

5- Mécanique quantique et connaissance du réel

Hervé Zwirn

Introduction

Les problèmes d'interprétation de la mécanique quantique conduisent às'interroger sur le statut de la réalité et de la relation entre les systèmesphysiques et leurs observateurs. En particulier, les difficultés rencontrées dans leproblème de la mesure quantique ont amené certains physiciens à postuler unemystérieuse action de la conscience sur la matière. Des travaux datant d'il y aune vingtaine d'années apportent une solution nouvelle au problème. La portéephilosophique de cette solution dépend cependant des positions initiales qu'onadopte face au réalisme. Dans ce qui suit, on présentera d'abord le problème de lamesure et les anciennes solutions. Puis, on examinera en quoi la nouvellesolution permet d'éviter tout paradoxe. Enfin on s'interrogera sur lesconséquences de cette solution sur le réalisme.

I. Trois principes fondamentaux de la mécanique quantique

I.1. Le principe de superposition

La mécanique quantique postule que les états d'un système physiquedonné forment un espace vectoriel (plus précisément un espace de Hilbert). Laconséquence en est que toute combinaison linéaire d'états possibles est elle-mêmeun état possible. Si, par exemple, on se contente de caractériser l'état d'uneparticule par sa position et qu'on note |x > (resp | y >) l'état de la particule à laposition x (resp y), alors l'état 1/√2 [|x> + |y>] est un état possible. Un tel étatest appelé un état superposé. Quelle position occupe une particule dans cet état ?Est-elle en x, en y, au milieu, ou oscille-t-elle entre les deux positions ?

I.2 Le principe de réduction du paquet d'ondes

La réponse est apportée par le principe de réduction du paquet d'ondes(PRPO) qui régit le processus de mesure en prédisant ce qu'on observera si onmesure telle grandeur physique sur un système dont on connaît l'état. Ainsi,PRPO nous dit que si on mesure la position d'une particule dans l'état1/√2 [|x> + |y>], on observera la particule à la position x avec une probabilité de1/2 et idem pour la position y. Il en résulte que si on mesure la position d'ungrand nombre N de particules dans cet état, on en observera en gros la moitié enx et l'autre moitié en y. Il est alors tentant d'interpréter cela comme signifiantque l'état superposé 1/√2 [|x> + |y>] est la représentation d'un mélange departicules dont une moitié est en x et une moitié est en y et ce, dès avant lamesure qui ne serait qu'un constat a posteriori. Dans ce cas, l'état en questionreprésenterait un mélange de N/2 particules dans l'état |x> et N/2 particulesdans l'état |y>. Cette interprétation n'est cependant pas tenable car il est

Page 145: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

possible de montrer qu'un ensemble de particules, dans l'état superposé, secomporte sous certains aspects de manière différente de celle d'un mélange departicules. L'état superposé n'est donc pas identique à un mélange de particulesoccupant une position bien définie x ou y. La conséquence est qu'on doitconsidérer qu'avant la mesure, une particule dans l'état superposé ne possèdeaucune position définie et que c'est le processus de mesure qui force la position àadopter une valeur précise. Cette conclusion est tout à fait générale et s'appliqueà toutes les grandeurs physiques : un système dans un état qui est unesuperposition d'états correspondants chacun à des valeurs bien définies pourcertaines grandeurs physiques, ne peut être considéré comme possédant unevaleur définie pour ces grandeurs. Ceci est bien évidemment radicalementdifférent de ce qui se passe en mécanique classique où les valeurs des grandeursphysiques attachées au système sont bien définies à tout moment. En général,seules des prédictions probabilistes sur les valeurs que fournira la mesure et surl'état final correspondant sont possibles.

I.3 L'équation de Schrödinger

En l'absence de toute mesure, l'état Ψ d'un système évolue conformément àl'équation de Schrödinger (ES) :

ih/2π dΨ/dt = HΨ

où h est la constante de Planck et H est l'opérateur hamiltonien associé àl'énergie du système.

II. Le problème de la mesure

On se trouve en présence de deux postulats d'évolution. Le premier (PRPO)doit être utilisé lorsqu'on fait une mesure, le deuxième (ES) doit l'être enl'absence de mesure. Ceci serait parfaitement acceptable s'il était possible despécifier ce qu'est une mesure de manière non ambiguë. Malheureusement, onpeut voir que tel n'est pas le cas. Pour cela, considérons un système S sur lequelon fait une mesure à l'aide d'un appareil A. Deux points de vue apparemmentéquivalents sont possibles pour décrire cette mesure :

a) Si l'on s'intéresse à l'état ES du système S, le principe de réduction dupaquet d'ondes prescrit comment celui-ci peut évoluer après la mesure.Supposons que la mesure a lieu à l'instant t. Si avant la mesure, l'étatest ES(i), celui-ci deviendra après la mesure ES(f1) ou ES(f2) (on serappelle que plusieurs résultats de mesure sont possibles en général eton se limitera ici à deux sans perte de généralité).

b) Considérons maintenant le grand système Σ constitué du système S etde l'appareil A. La mécanique quantique nous apprend que si ES estl'état du système S et EA l'état de l'appareil A, l'état du système Σ seraSΣ = ES EA. Avant l'instant t, cet état sera donc ES(i) EA(i). Le système

Page 146: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

Σ n'est lui soumis à aucune mesure. Son état évolue doncconformément à l'équation de Schrödinger et il est possible de lecalculer après l'instant t.

Le point important est qu'on peut montrer que le calcul par l'équation deSchrödinger ne permettra jamais de retrouver pour S un résultat identique ni àES(f1) ni à ES(f2). Les deux points de vue, qui semblent aussi légitimes l'un quel'autre, conduisent à des prédictions irréconciliables. Le premier point de vueaboutit à considérer qu'après la mesure le système S est dans un état où lagrandeur mesurée possède une valeur définie. Dans le deuxième point de vue,l'état final du grand système Σ est un état superposé où l'appareil A et le systèmeS sont « enchevêtrés ». La valeur de la grandeur physique n'est pas définie.L'apparente contradiction entre les deux principes d'évolution est ce qu'onappelle le problème de la mesure.

III. Les premières solutions

III.1 Bohr et l'école de Copenhague

Pour résoudre cette difficulté, Bohr fait remarquer qu'en pratique, on saittrès bien quand on fait une mesure et le résultat n'est jamais un état superposémais toujours un état où la grandeur mesurée possède une valeur bien définie. Iln'y a donc aucune ambiguïté sur le fait qu'il faut utiliser le principe de réductiondu paquet d'ondes. Selon la position de l'école de Copenhague, la science a pourobjet de donner un langage descriptif et des moyens de prédire les résultatsd'observation. En pratique, on sait qu'une observation fait intervenir un appareilmacroscopique et lorsqu'on procède ainsi on doit utiliser PRPO. Cette position àtendance positiviste est cohérente, mais elle conduit à renoncer à se posercertaines questions comme « quelle est la position d'une particule qu'on n'observepas ? ». De plus, elle n'explique pas pourquoi les deux points de vue donnent desrésultats différents. La mécanique quantique est une théorie qui s'applique enprincipe aussi bien aux objets microscopiques que macroscopiques. Le fait que ledeuxième point de vue, tout aussi légitime a priori, ne donne pas le bon résultatreste un mystère.

III.2 Von Neumann, London et Bauer, Wigner

Pour tenter de pousser plus loin l'analyse, on peut remarquer qu'il estpossible d'étendre le deuxième point de vue en incluant l'observateur lui-mêmedans le grand système Σ. Dans ce cas, la conclusion qui suivra est quel'observateur doit aussi être dans un état superposé enchevêtré avec le système etl'appareil. L'observateur est constitué de parties physiques (œil, nerf optique,cerveau etc.) et, de manière ultime, d'une conscience. La mesure se termine parla prise de conscience du résultat par l'observateur. C'est cette remarque que vonNeumann, London et Bauer, Wigner ont utilisée pour proposer une solution.Selon eux, la conscience n'est pas une composante physique, elle échappe donc àla description de la mécanique quantique. Ce constat leur permit de supposer que

Page 147: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

c'est la prise de conscience de l'observateur qui est responsable de la réduction dupaquet d'ondes. C'est donc en quelque sorte l'action de la conscience sur lesystème qui force celui-ci à adopter un état où la grandeur physique possède unevaleur définie.

Cette solution rencontre toutefois un certain nombre de difficultés. Toutd'abord, elle introduit un dualisme gênant : à côté des objets du monde physique,existeraient des consciences qui n'en feraient pas partie mais seraient cependantsusceptibles d'avoir une action directe sur les objets physiques. La nature decette action paraît pour le moins mystérieuse. On se rappelle que Descartes avaitdéfendu une position analogue qui a été abandonnée depuis longtemps. Ensuite,surgissent un grand nombre de questions étranges : si c'est la prise de consciencequi crée la valeur de la grandeur physique — comme, par exemple, la positiond'une particule — que vaut la grandeur si personne n'observe ? Si on répond quela grandeur n'a aucune valeur, alors il faut en conclure que la lune n'avaitaucune position définie avant que quelqu'un ne l'observe ! Qu'en est-il del'univers avant l'apparition d'êtres conscients ? Par ailleurs, la conscience d'unsinge peut elle aussi réduire le paquet d'ondes ? Et celle d'un chien ou d'unemouche ? L'absurdité de ces questions nous rend suspicieux sur cette solution.Remarquons de plus que cette solution prend place dans le cadre d'un réalismenaïf. On considère que les objets existent en soi et que la conscience a une actionobjective sur eux. La réduction du paquet d'ondes par action de la consciencemodifie objectivement l'état du système qui passe d'un état superposé à un étatoù la grandeur observée a une valeur bien définie.

III.3 La théorie des états relatifs d'Everett (théorie des universparallèles)

Une autre solution a été proposée par Hugh Everett. Elle consiste àsupposer que la fonction d'ondes n'est jamais réduite et reste toujourssuperposée. L'état de l'observateur est lui aussi un état superposé comme leprescrit l'équation de Schrödinger. Pourquoi alors avons-nous conscienced'observer des états réduits ? Parce qu'à chaque mesure, l'observateur lui-mêmese scinde en autant d'observateur différents qu'il existe de possibilités différentesde résultats et dans chaque branche, la conscience de l'observateur voit la partieréduite correspondante. En dehors de son étrangeté, cette solution n'est pasexempte de difficultés comme celle que pose la mesure du spin d'une particuleprovenant de la désintégration d'un système de deux particules dans un étatsingulier de spin. Comme l'a fait remarquer d'Espagnat, en raison de la symétriesphérique du problème, il faudrait supposer une infinité continue d'universparallèles, ce qui est extrêmement peu satisfaisant.

Page 148: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

IV. La théorie de la décohérence

IV.1 La solution

La solution est venue d'une remarque de Zeh dans les années 70 qui fitremarquer que les niveaux d'énergie des systèmes macroscopiques sont tellementproches les uns des autres que même de toutes petites fluctuations peuvent lesaffecter. Ils ne peuvent donc jamais être considérés comme réellement isolés deleur environnement. Il en résulte que dans ce que nous avons appelé le deuxièmepoint de vue lors d'une mesure, le grand système Σ doit inclure aussi cetenvironnement. Il faut donc appliquer l'équation de Schrödinger à la fonctiond'ondes du système S, de l'appareil A et de l'environnement E. On aboutit alorsaprès l'instant t, à un état enchevêtré du système, de l'appareil et del'environnement. Apparemment il semble qu'on n'y gagne rien. Cependant, lorsd'une mesure, on se contente en fait, d'observer le système et l'appareil et onlaisse de côté l'environnement. La raison en est d'une part que l'environnementne nous intéresse pas et d'autre part, qu'on serait bien incapable de mesurer lesgrandeurs attachées à ses différentes composantes ; qu'on pense au nombrefaramineux de molécules d'air dans une pièce ! On sépare donc le système etl'appareil de leur environnement. Or, la mécanique quantique nous dit quelorsqu'on ne s'intéresse qu'à un sous-système d'un grand système, il est possibled'obtenir son état à partir de l'état du grand système en faisant une opérationmathématique — qui s'appelle « prendre la trace partielle » — sur l'état global.Et c'est là que la suggestion de Zeh montre sa pertinence, puisqu'il est possible demontrer — Zurek a été un des premiers à le faire au début des années 80 — quel'état ainsi obtenu est identique — à certaines réserves près que nous verronsplus loin — à celui qu'on obtient par le principe de réduction du paquet d'ondes.L'évolution par l'équation de Schrödinger et celle par le principe de réduction dupaquet d'ondes sont enfin réconciliées.

IV.2 Les réserves

La théorie de la décohérence est une énorme avancée dans la résolution duproblème de la mesure. Peux-t-on considérer qu'elle est la solution définitive duproblème ? C'est la position de nombreux physiciens, mais la réponse dépend engrande partie de la position philosophique de base qu'on adopte. Pourcomprendre pourquoi la réponse n'est pas immédiate, il faut maintenantexpliciter certains points que nous n'avons pas mentionnés plus haut. Toutd'abord, l'état qu'on obtient pour le système et l'appareil par l'utilisation de ladécohérence n'est pas exactement identique à celui qu'on obtient par applicationdu principe de réduction du paquet d'ondes. Même s'il en est très proche, il endiffère de deux manières. Le principe de réduction du paquet d'ondes nous ditque l'appareil et le système seront après la mesure dans des étatsmacroscopiquement bien définis, avec une certaine probabilité pour chaque étatsi plusieurs résultats sont possibles. Ceci signifie que toute corrélation entre lesdifférents états aura disparu. La décohérence nous dit que les corrélations entreles différents états possibles deviennent très rapidement négligeables, mais en

Page 149: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

toute rigueur, ces corrélations ne disparaissent pas totalement. Simplement, ellesdeviennent trop faibles pour être mesurables. Par ailleurs, si on s'intéresse à unsystème unique et non pas à un ensemble de systèmes, l'état qu'on obtient aprèsdécohérence doit être interprété comme le fait que le système est dans une sortede coexistence, sans corrélation, des différents états possibles plutôt que commedans un seul état choisi parmi les états possibles. Cette difficulté, appeléeproblème du « ou-et » par Bell est subtile et nous la laisserons de côté ici. Il noussuffit de signaler que ces deux différences entre les états produits par applicationde la décohérence et ceux produits par application du principe de réductionmontrent que la réponse n'est pas si immédiate que certains physiciensparaissent le croire.

IV.3 Aspects philosophiques du problème

Nous avons dit plus haut que la réponse dépend de la positionphilosophique qu'on adopte. Nous allons voir maintenant pourquoi. Selon lemécanisme de décohérence, le système, l'appareil et l'environnements'enchevêtrent et seul le grand système composé des trois parties possède un état.Ce n'est que parce que nous sommes, en tant qu'êtres humains, incapables deprendre conscience — c’est-à-dire de mesurer — des corrélations entre l'appareilet les composantes de l'environnement que nous devons prendre la trace partiellede l'état global pour décrire ce que nous observons en pratique. En d'autrestermes, cette opération — qui donne comme nous l'avons vu un résultat proche decelui du PRPO — nous donne une description de l'apparence pour nous del'appareil et du système. L'appareil et le système nous apparaissent comme étantdans un état macroscopiquement bien défini. Mais si nos capacités perceptivesnous permettaient de prendre conscience des corrélations avec l'environnement,nous « observerions » qu'aussi bien l'appareil que le système sont dans un étatenchevêtré avec l'environnement et nullement dans un état réduit. L'apparencede nos observations vient de notre incapacité pratique à effectuer certainesmesures. Il en résulte que pour celui qui considère que la réalité estindépendante de nos perceptions — réaliste métaphysique — ou au moins ne doitpas dépendre de nos capacités perceptives pratiques — réaliste empirique deprincipe —, la décohérence donne une explication de l'apparence de cette réalitépour nous et n'est pas un mécanisme qui projette objectivement les étatssuperposés en états macroscopiquement définis. Pour de tels réalistes, la réalitéreste profondément quantique et seule l'apparence de cette réalité est classique.En revanche, pour celui qui considère que la seule réalité est celle desperceptions pratiquement réalisables — réaliste empirique pragmatique —, ladécohérence est la solution définitive du problème de la mesure car il estdépourvu de sens de s'interroger sur des mesures que nous ne pouvons réaliser. Ilest intéressant de remarquer que la décohérence continue à faire jouer à laconscience un rôle essentiel. Mais à la différence de celui que von Neumann ouWigner voulaient lui attribuer, il ne s'agit plus d'action objective directe de laconscience sur la matière. La conscience devient seulement l'aune à laquelle onmesure la réalité. Pour un réaliste métaphysique, la conscience prescrit la formeque revêt pour nous une réalité qui nous dépasse, pour un réaliste empiriquepragmatique, la conscience définit ce qu'est la réalité.

Page 150: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

IV.4 Le solipsisme convivial

À la suite de Bernard d'Espagnat qui a proposé une interprétationpermettant de résoudre les problèmes soulevés par la théorie des états relatifsd'Everett, j'ai développé une position, le solipsisme convivial, qui s'intègre dans lecadre de la théorie de la décohérence. Cette position suppose qu'on refuse de seplacer dans le cadre du réalisme empirique pragmatique. Bien que défendant parailleurs une position différente qu'il serait trop long de détailler ici, je me placeraiici dans le cadre du réalisme métaphysique. La décohérence est alors lemécanisme qui explique l'apparence classique pour nous d'une réalité quidemeure essentiellement quantique, c'est-à-dire enchevêtrée. Le solipsismeconvivial fait entrer l'observateur lui-même dans le grand système Σ. Leraisonnement que nous avons décrit conduit alors à considérer que l'observateurest aussi dans un état enchevêtré avec le système, l'appareil et l'environnement.Du point de vue de la réalité profonde (et non de l'apparence de cette réalité pournous), seule une fonction d'ondes globale superposée « existe ». Dans cettefonction d'ondes, les différents résultats possibles de mesure sont présents et sontcorrélés ainsi que tous les états correspondants de l'observateur. La décohérenceintervient et permet de régler un certain nombre de problèmes que nous n'avonspas eu la possibilité d'évoquer : quelle est la grandeur mesurée par exemple, cequi a pour effet de résoudre la difficulté que nous avons signalée à propos del'interprétation d'Everett. Le solipsisme convivial consiste alors à considérer quela conscience de l'observateur est « accrochée » à l'une des branches de la fonctiond'ondes ne lui permettant d'observer que la partie classique correspondante. Laconscience joue en quelque sorte le rôle d'un filtre ne permettant de voir qu'unepartie de la fonction d'ondes globale. Une définition précise de ce processuspermet de montrer que les prédictions habituelles de la mécanique quantiquesont respectées malgré le fait que la fonction d'ondes n'est jamais rigoureusementréduite. Le point surprenant est alors que rien n'oblige deux observateursdifférents à être accrochés à la même branche. Pour une mesure donnée, unobservateur peut être accroché à la branche donnant le résultat A alors qu'unautre le sera à la branche donnant le résultat B. Comment peut-il en être ainsialors qu'on sait que deux observateurs de la même expérience sont — en général— d'accord sur le résultat ? La raison en est que la communication entreobservateurs est elle-même un processus de mesure et que le mécanismed'accrochage garantit la cohérence des observations pour un observateur.Supposons qu'André a observé le résultat A et Bernard le résultat B. Les deuxobservations ne sont que l'accrochage de la conscience d'André et de Bernard àleur branche propre de la fonction d'ondes globale qui contient les deuxpossibilités. Si André demande à Bernard ce qu'il a vu, l'interaction entre Andréet Bernard qui en résulte contient la totalité des possibilités, donc à la fois unebranche où Bernard répond A et une branche où Bernard répond B. La fonctiond'ondes d'André sera après l'interaction avec Bernard dans un état enchevêtrécontenant les deux réponses mais la conscience d'André s'accrochera à la branchecorrespondant à la réponse cohérente avec son observation précédente, ilentendra donc Bernard répondre A conformément à son attente. C'est la raisonpour laquelle cette interprétation porte le nom de solipsisme convivial : chaque

Page 151: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

observateur vit dans son monde qui peut être totalement différent de celui desautres, mais il n'existe aucun moyen de se rendre compte des désaccords et lesobservateurs sont en parfait accord. Ceci fournit une nouvelle explication del'intersubjectivité : il n'y a aucun moyen de constater un désaccord. Signalonspour terminer une conséquence étrange sur l'indéterminisme de la mécaniquequantique. La fonction d'ondes de l'Univers évolue de manière parfaitementdéterministe par l'équation de Schrödinger, seul le mécanisme d'accrochage tireau sort la branche à laquelle chaque observateur s'accroche. Ce n'est donc plusDieu qui joue aux dés, c'est l'homme, mais avec le constat étrange que deuxjoueurs peuvent voir le même dé tomber sur une face différente.

Bibliographie sommaire

BELL J.S., (1964) Physics 1, 195.BELL J.S., (1987) "Speakable and unspeakable in quantum mechanics",Cambridge University Press.BELL J.S., (1990) "Against Measurement", in Sixty Two Years ofUncertainty, A.I. Millered., New York, Plenum Press.ESPAGNAT d' B., (1976) "Conceptual Foundations of Quantum Mechanics",Reading, Mass., Addison-Wesley, 1971, 2°ed 1976.ESPAGNAT d' B., (1979) "A la recherche du réel", Gauthier-Villars, Paris.ESPAGNAT d' B., (1980) "Théorie quantique et réalité", Pour la Science,n°27, janvier 1980.ESPAGNAT d' B., (1985) "Une incertaine réalité", Gauthier-Villars, Paris.ESPAGNAT d' B., (1994) "Le réel voilé", Fayard, Paris.ESPAGNAT d' B., (1997) "Physique et réalité", Bitbol et Laugier ed., EditionsFrontières.EVERETT III H., (1957) Rev. Mod. Phys., 29, 463WHEELER J.A., ZUREK W., (1983) "Quantum Theory and Measurement",Princton University Press.ZEH H., (1970) Foundations of Physics, 1, 67.ZEH H., (1995) in "Decoherence and the Appearance of a Classical Word inQuantum Theory", Giulini D. et al., Springer.ZUREK W., (1981) Phys. Rev. D24, 1516.ZUREK W., (1982) Phys. Rev. D26, 1862.ZUREK W., (1991) "Decoherence and the Transition from Quantum toClassical", Physics Today, october 1991, p36.ZWIRN H.P., (1992) "Du quantique au classique", Pour la Science, n°182, dec1992.ZWIRN H.P., (1994) "La place de la conscience en physique", Neuro-psy, Vol9, n°9, nov 1994.ZWIRN H.P., (1997) "La décohérence est-elle la solution du problème de lamesure ?", in d'Espagnat(1997).ZWIRN H.P., (2000) "Les limites de la connaissance", Odile Jacob (2000).

Page 152: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

1

6- Débat d'ensemble

Intervenants : Jean Bricmont, Michel Bitbol, Pierre Perrier, Jean Staune,Bernard d’Espagnat, Anne Dambricourt, Dominique Laplane, Hervé Zwirn, JeanPetitot et Jean-François Lambert.

Jean Bricmont

J’entamerai la discussion en soulignant que, si contrairement à vous, jen’aborde pas d’emblée les problèmes philosophiques, c’est parce que je lesconsidère comme très compliqués, et que je pense qu’il vaut mieux faire le simpleavant de faire le compliqué. Ce n’est pas du mépris pour les problèmesphilosophiques. Au contraire, j’ai tendance à trouver que des problèmes réels,posés par le rapport de notre esprit ou de notre cerveau au monde, sont tropcompliqués pour que l’on puisse les comprendre réellement aujourd’hui : faisonsdonc d’abord les choses simples, puis on s’intéressera aux choses compliquées.

Cela dit, à propos de la théorie de Bohm, vous avez évoqué, en substance,une préconception classique et une sous-détermination des théories parl’expérience. Mais mon problème avec la préconception classique, c’est que je nesais pas ce que c’est. En effet, il ne faut pas oublier que la physique classiquecomprend l’électromagnétisme et la relativité générale classique. Dans cesmatières, il y avait déjà une sous-détermination de l’ontologie.

Supposons que je vous dise : moi je ne crois pas au champélectromagnétique dans le vide. Tout ce que je crois, c’est qu’il y a des forcesagissant à distance, qui agissent simplement entre particules chargées. J’utilisepour décrire ces forces les équations de Maxwell et la force de Lorentz. J’utiliseexactement les mêmes équations. Mais je prends un point de vue « positiviste »en disant que la seule chose qui existe réellement, ce sont des forces, mais desforces ayant comme résultat net l’interaction entre ces choses-là. Il n’y a pas dechamp électromagnétique tout comme il n’y a pas de bosons ; il n’y a que desfermions, de la matière. La matière agit à travers des forces et les forces sontdécrites mathématiquement — c’est un artifice mathématique — par leséquations de Maxwell et la force de Lorentz. Tout, là, est empiriquementadéquat. Il n’y a pas de champ électromagnétique dans le vide. Il n’y a rien dansle vide. Vous ne prouverez pas le contraire en vous installant dans le vide avec unappareil radio et en constatant que vous écoutez, disons, France Culture. Carl’appareil radio est, bien entendu, fait de matière et je vous rétorquerais qu’il y aune interaction directe, qui est d’une force, entre l’émetteur de France Culture etvotre appareil radio, mais qu’il n’y a pas de champ électromagnétique entre lesdeux.

Nous avons ici, en physique classique, une sous-détermination ontologiquequi me paraît exactement du même type que la sous-détermination que j’ai dansla théorie de Bohm. Ça ne me dérange pas qu’il y ait des sous-déterminations car

Page 153: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

2

cela me paraît assez normal. D’un autre côté, j’ai une certaine vision objective dumonde, qui est sous-déterminée certes, mais j’ai quelque chose, je raconte quelquechose sur ce qui se passe, je ne fais pas intervenir l’appareil de mesure au centrede ma théorie. Tandis que, dans la mécanique quantique ordinaire, prise, commeje l’ai dit, dans le sens littéral, tout ce dont on parle, ce sont des corrélationsrépétables entre appareils de mesure — je ne dis pas entre observateurs — dansdes laboratoires contemporains. Il n’est pas vrai que l’on puisse y raconter unehistoire. Lorsqu’on ne peut séparer la particule de son environnementexpérimental, la raison pour laquelle on ne peut les séparer est, dans la théoriede Bohm, très claire : elle est contenue dans les équations. Une fois que l’on m’adit ça, cela ne me dérange pas qu’on ne puisse pas les séparer. Le problème résidedans le fait que, tout au contraire, en mécanique quantique, je ne sais pascomment cela se fait : j’ai une fonction d’onde, la fonction d’onde donne laprobabilité du résultat de la mesure — et c’est tout.

C’est un argument très curieux de me dire, par exemple, dans la théorie deBohm, les bosons ne sont pas des particules. Mais, en mécanique quantique, ce nesont pas des particules non plus : il ne faut pas oublier qu’en mécaniquequantique il n’y a ni boson, ni fermion, ni champ, ni spin, ni quoi que ce soit… Iln’y a aucune propriété. Il y a simplement, si on la prend littéralement, desrecettes qui vous disent ce qui se passe lorsque vous faites des manipulations enlaboratoire — point à la ligne. C’est très important d’être honnête concernant cepoint, c’est-à-dire de s’en tenir à cette position-là, qui n’est pas quelque chose quia simplement dépassé le paradigme classique, mais qui, prise à la lettre, paraîtabsurde. En fait, ce qui se passe, c’est qu’il y a, en mécanique quantique, tout unlangage chosifiant — on dit : ah la particule arrive, elle a une impulsion, un spin,etc… — qui va bien au-delà de l’interprétation littérale, alors que, dans lamécanique quantique, il n’y a rien, il n’y a aucune ontologie.

Si les gens essayent d’en faire une, ils vont, bien entendu, rencontrer lasous-détermination comme en physique classique ; et la question de savoir si leséléments ainsi introduits sont arbitraires et non testables est une longuediscussion sur ce que l’on appelle « testable » en science. Toute la philosophie dessciences, toute la critique de Popper, toutes les épistémologies post-positivistes,montrent que la relation de testabilité ne s’applique pas à des énoncés isolés.Dans la mesure où la mécanique quantique de Bohm fournit toutes lesprédictions de la mécanique quantique ordinaire, tous les tests de la mécaniquequantique ordinaire sont des arguments en faveur de la théorie de Bohm. Il n’estpas vrai qu’il y ait deux théories — d’une part la mécanique quantique et del’autre la théorie de Bohm — car la théorie de la mécanique quantique n’est pasune théorie.

Michel Bitbol

Je pense que vous avez raison au moins sur un point. Vous avez raison àmon sens lorsque vous demandez d’être cohérent, d’aller jusqu’au bout del’interprétation de type instrumentaliste de la mécanique quantique et d’éviter de

Page 154: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

3

faire des mélanges approximatifs entre un usage instrumentaliste de la théorie etdes reliquats de vocabulaire ou de croyances réalistes. Le professeur d’Espagnat ad’ailleurs très justement insisté sur ce point dans la préface du Réel voilé. Enrevanche, lorsque vous dites « je veux montrer comment fonctionne cette fameusecontextualité à la Bohr », lorsque vous espérez mettre au jour les détails del’interaction objet-appareil par le biais de la théorie de Bohm 1952, je ne voussuis plus du tout. En raison de l’extrême sous-détermination à laquelle sontsoumises les théories de ce genre — dont les processus postulés sontprincipiellement inaccessibles à l’expérience —, vous ne pouvez pas prétendre lesutiliser pour montrer comment « ça fonctionne » en réalité, de façon certaine etunique. Vous pouvez tout au plus proposer un scénario plausible parmi biend’autres, une image parlante de la façon dont « ça pourrait fonctionner », si lemonde avait la politesse de ne pas trop s’éloigner des représentations héritées dela physique classique. La théorie de Bohm 1952 est en somme un instrument depensée et d’imagination qui peut vous être utile, mais il est vain d’espérer entirer des conclusions d’ordre ontologique au sens fort.

Jean Bricmont

Je crois que, si vous réfléchissez à fond aux explications en termes dechamp électromagnétique, si vous dites « qu’est-ce que c’est que l’orage ? », vousavez le même genre de problème. Je pense que, dans la mesure où il y a desproblèmes — et il y en a avec le réalisme —, j’insiste sur le fait qu’ils existaientdéjà en physique classique.

Pierre Perrier

Je souhaiterais juste dire une boutade, mais qui est très instructive quantaux limitations de la pensée humaine. J’étais tout à l’heure dans une salle où il yavait une statue d’un grand physicien de l’époque des Lumières, qui était alléfaire des mesures concernant le mètre en Bretagne, et qui en était revenu avecses mesures. On lui avait alors posé la question suivante : « avez-vous eu desdifficultés avec les habitants ? » Il a répondu : « non, pas trop, mais quel retarddans leur pensée : ils vont jusqu’à imaginer qu’il y a une influence de la Lune surles marées ! »

Jean Staune

Finalement, qu’attend un spiritualiste intelligent de la mécaniquequantique ? Un spiritualiste va-t-il utiliser la mécanique quantique pour dire oufaire dire qu’il y a un Créateur ? Non. Concernant la probabilité de la notion deCréateur, il pourrait réfléchir sur le principe anthropique, en discuter avec TrinhXuan Thuan, Freeman Dyson, Paul Davies, John Polkinghorne et d’autres. Va-t-il s’adresser à la mécanique quantique pour voir s’il y a un sens dans l’évolution,si l’homme est là par hasard ou non ? Non. Il va, pour cela, discuter avec des

Page 155: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

4

biologistes comme Anne Dambricourt, Rémy Chauvin ou Michael Denton. Mêmes’il s’agit du domaine de la conscience, je reste persuadé qu’un spiritualisteintelligent ne doit pas s’intéresser à la mécanique quantique, mais s’adresser àdes personnes telles que Jean-François Lambert, sir John Eccles ou d’autres, afind’évaluer si l’homme est descriptible entièrement en terme neuronal ou siquelque chose échappe à la description neuronale dans l’homme. Ainsi, c’est unsujet qui est de l’ordre de la neurophysiologie, de la psychophysiologie ou bienencore des sciences de la conscience et non de l’ordre de la mécanique quantique.

Une fois cette constatation posée, on peut reposer la question : quedemande un spiritualiste à la mécanique quantique ? Il s’agirait, finalement, demontrer le caractère non ontologique de notre niveau de réalité — ce qui nousramène au débat sur la question des niveaux de réalité. C’est-à-dire, montrerqu’il y a une ouverture, quelque chose d’autre, peu importe ce qu’est cette autrechose. Peu importe que ce soit le chaos quantique ou un Dieu avec une grandebarbe blanche. Ce qui importe, c’est que notre niveau de réalité, défini au sens duprofesseur d’Espagnat comme le réel proche — celui qui, même s’il est à l’autrebout de l’univers, est conceptuellement proche de nous, c’est-à-dire qui est dans letemps, l’espace, l’énergie, la matière, où il y a des notions de trajectoire, delocalité, de causalité — c’est que ce niveau de réalité puisse être considéré commenon ontologiquement suffisant et ouvert sur quelque chose d’autre. Je pense quec’est ici tout ce qu’un spiritualiste peut attendre de la mécanique quantique.

Or, justement, il s’agit bien, lorsque l’on regarde le débat actuel, de ce quela mécanique quantique lui donne. Ainsi, David Bohm a le même combat — façonde comparer un peu caricaturale — que Bernard d’Espagnat et cela malgrél’énorme différence qui existe entre leurs pensées : l’un adhère aux théories àvariables cachées non locales contrairement à l’autre. La première fois que j’airencontré Bernard d’Espagnat, il y a 11 ans au Collège de France, la premièrequestion que je lui ai posée était : « Je viens d’écrire un article sur votre vision duréel où je vous mets dans le même sac que D. Bohm. Est-ce vrai ou faux ? ». Il m’aalors répondu : « Non pas du tout ».

Le Bohm de 1970 — que Michel Bitbol a cité au cours de cette rencontre —parle d’un autre niveau de réalité qui se manifeste, dont la réalité qui nousapparaît, n’est que la projection d’un niveau de réalité plus profond. Ils’apparente au « réel voilé » de Bernard d’Espagnat, qui est à la base du réelproche dans lequel nous vivons. Donc, tous les problèmes, à partir du moment oùl’on accepte même la non-localité en tant que telle, peuvent mener à la« recherche d’une ouverture » que le spiritualiste « intelligent » attend de lamécanique quantique.

Je voudrais juste citer un passage du Cantique des Quantiques, d’autantplus frappant qu’il émane de deux matérialistes — Sven Ortoli et Jean-PierrePharabod — qui parlent de l’émergence de nouvelles possibilités philosophiqueset de l’abolition du carcan matérialiste. « En effet, la science des XVIIIe et XIXesiècles avait abouti au triomphe du matérialisme mécaniste, qui expliquait toutpar l’agencement de morceaux de matière minuscules et indivisibles —

Page 156: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

5

agencement réglé par diverses forces d’interaction qu’ils exerçaient entre eux.Cette vision assez primitive, à laquelle se tiennent encore la plupart desbiologistes, avait pour conséquence l’inutilité des religions et des philosophies,qui font appel à l’existence d’entités non matérielles. Le fait que ces morceaux dematière se soient révélés n’être en réalité que des abstractions mathématiquesnon locales — c’est-à-dire pouvant s’étendre sur tout l’espace et de plusn’obéissant pas au déterminisme — a porté un coup fatal à ce matérialismeclassique. Certes, le matérialisme est encore possible mais c’est un matérialismequantique, qu’il faudrait appeler matérialisme fantastique ou matérialisme descience-fiction ».

Ainsi, la vision du réel que nous donne la mécanique quantique permet unevision matérialiste, mais la vision d’un matérialisme « transformé » qui doitadmettre des choses beaucoup plus étranges et différentes de ce que l’on s’attendà trouver à notre niveau de réalité dans la vision classique ; un matérialisme quidoit concéder l’ouverture d’une porte sur quelque chose d’autre, dont la science nenous dit rien à part qu’il existe.

En conclusion, on peut dire que pour les matérialistes physiciens qui sepencheraient sur le développement de la théorie de Bohm dans l’espoir d’ytrouver quelque chose qui pourrait réfuter une ouverture en direction d’uneconception spiritualiste du monde — non une preuve —, ce serait une perte detemps puisque, de toute façon, le spiritualiste a de la mécanique quantique cequ’il en attend — qui est justement cette ouverture-là — et cela même si onpouvait valider la théorie de Bohm de 1952. Il y a suffisamment de bizarreriespour ouvrir cette porte, pour montrer le caractère non ontologique du réel.

Bernard d’Espagnat

Je me trouve pleinement d'accord avec les neuf dixièmes de ce que vousavez dit. En particulier vous avez, à mon sens, pleinement raison de soulignerqu'en raison de la non-localité, si la physique actuelle permet encore, à larigueur, une vision matérialiste, il ne peut plus s'agir que d'un matérialismeprofondément transformé, qui, en fait, doit admettre la validité d'idéestotalement contraires à celles que la vulgate matérialiste a toujours défendues etdéfend encore.

Cela dit, vu l'existence, précisément, de la théorie de Louis de Broglie etDavid Bohm, je n'irais, pour ma part, pas jusqu'à dire que le matérialiste doitabsolument concéder l'ouverture d'une porte sur « quelque chose d'autre ». Lathéorie de ces auteurs est cohérente et elle est ontologiquement interprétable.Son défaut est seulement — mais c'est un défaut essentiel — celui de ne pas êtrescientifiquement crédible. Contrairement à ce que Jean Bricmont semble penser,je ne crois pas que, si une écrasante majorité des physiciens écarte cette théorie,c'est uniquement par préjugé. Toutes sortes de raisons font que l'idée dereformuler en ces termes l'ensemble de la physique fondamentale actuelle — ycompris la théorie quantique des champs, celle des interactions fortes, l'idée de

Page 157: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

6

supersymétrie, etc. — paraît chimérique. En outre, et plus fondamentalement, lathéorie en question attribue aux diverses grandeurs considérées à juste titrecomme observables — la position exceptée — des valeurs qui — elle le préditelle-même — ne sont pas celles qui sont réellement observables. Au chapitre 4 deson livre, L'aveuglante proximité du réel, Michel Bitbol caractérise très justementce trait quand il écrit que « la théorie de David Bohm n'est en définitive qu'unexpédient consistant à greffer sur le corps de la mécanique quantique une formeontologique empiriquement vide ». Dans ces conditions, je dirais, quant à moi,que, si quelqu'un veut absolument continuer à croire à cette théorie, il le peutlogiquement parlant. Je dirais que c'est un « acte de foi légitime ». Et sur la basede cet acte de foi, il peut rejeter l'ouverture dont vous parlez. Mais d'un autrecôté, si, pour les raisons que je viens de dire — ou d'autres ! —, on n'arrive pas àcroire au modèle de Bohm ni aux autres modèles ontologiquement interprétables— qui tous rencontrent des difficultés similaires — et si, d'autre part, onn'adhère pas à « l'idéalisme intégral », alors le rejet en question devient plusdifficile car c'est vrai que la mécanique quantique « normale » ne décrit pas uneentité existant indépendamment de nous.

La difficulté que cette discussion met en lumière me paraît intimementliée à celle que soulève la notion d'explication. Je pense ici aux échanges de vuesque nous avons eus lors de notre débat sur le principe anthropique. JeanBricmont nous disait alors, à juste titre selon moi, qu'on ne peut acceptern'importe quel type d'explication et que, même en science, il est parfois proposédes explications qui ne peuvent être retenues. Il nous disait, par exemple, que,pour lui, la notion d'univers inobservables ne pouvait servir de fondement à uneexplication valable. Que si, pour expliquer le principe anthropique, il devait faireappel à de tels univers, il aimait autant faire appel à un principe créateur, oudire qu'il n'avait pas d'explication du tout. Ici, nous nous trouvons devantquelque chose d'assez similaire, puisque nous avons une explication — à savoir lemodèle de Bohm — mais qui est finalement aussi fantastique que celle parunivers inobservables, puisque le modèle lui-même nous dit qu'on ne pourra pasen tirer des conséquences observables. Par conséquent, j'aurais tendance àsuggérer à Jean Bricmont d'appliquer à ce modèle les critères qu'il préconisaitlui-même lors de cette séance, autrement dit de reconnaître que le modèle n'estpas une vraie explication.

Anne Dambricourt

Je crois comprendre qu’il y a un consensus quant à la reconnaissance de lanon-localité.

Jean Staune

Il me semble en effet que tout le monde ici présent est d’accord sur le faitque la non-localité existe.

Page 158: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

7

Jean Bricmont

C’est également ce qui me semble. Cependant, la plupart des physiciensn’ont pas l’air de partager ce point de vue.

Michel Bitbol

En vérité, c’est la signification du terme « non-localité » qui est en jeu. Lamécanique quantique prévoit qu’il y a des corrélations instantanées à distance, etcela est confirmé par l’expérience. Mais cela implique-t-il des actions de cause àeffet entre les deux termes corrélés ? Sur ce dernier point, le consensus n’existepas.

On peut concevoir de nombreuses autres façons d’expliquer lescorrélations. Il est vrai que l’alternative la plus connue aux relations causalesinstantanées est désormais exclue par la corroboration du théorème de Bell : lesthéories à variables cachées locales ont été clairement réfutées. Selon cesthéories, rappelons-le, la corrélation de phénomènes distants ne faisait querévéler la prédétermination de propriétés locales d’objets qui s’étaient trouvés encontact dans le passé. Mais il y a d’autres possibilités d’explication, qui nerelèvent ni de l’action causale directe à distance, ni de la prédétermination locale.Une de ces possibilités a été envisagée par Bohm et également, me semble-t-il,par Bernard d’Espagnat. Elle tourne autour de l’idée que la réalité même n’estpas spatiale, qu’elle n’inclut pas les distances parmi ses déterminationsfondamentales. Ce à quoi nous avons affaire selon elle n’est donc pas unecommunication de signaux à distance : cela relève plutôt de la non-distance. Lanon-localité se trouve ici remplacée par de l’a-localité voire de l’a-spatialité.

Comme vous le savez, je ne suis pas pour ma part très porté vers cesspéculations concernant ce qu’est ou n’est pas la réalité, indépendamment desmoyens que nous avons pour connaître. Mais je perçois dans ces conceptionsd’ordre métaphysique le germe d’une question épistémologique pertinente. Celame conduit à les regarder avec sympathie. Quelle est donc cette questionépistémologique pertinenteÊ? Elle consiste à s’interroger sur les conditionsexpérimentales d’assertabilité de propositions assignant des déterminationsspatiales à des objets. Ces conditions sont en pratique remplies à l’échellemacroscopique, mais peut-être pas aux échelles microscopiques, et certainementpas au-dessous de l’échelle de Planck. Ainsi, le compte-rendu théorique à ceséchelles devrait utiliser des variables non-spatiales — c’est-à-dire ne relevant pasde l’espace ordinaire — et montrer si possible comment peuvent émerger desvariables spatiales.

Dominique Laplane

Je souhaiterais donner mon sentiment de psychologue. Je suis de plus enplus persuadé que le mode de fonctionnement même de notre système nerveux et

Page 159: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

8

de notre système de compréhension est l’analogie. L’effort qui est fait, c’est detransposer une réalité expérimentale élaborée et de lui donner une analogie parrapport à ce que nous éprouvons par nos sens. Il semble que cela ne fonctionnepas très bien. Mais cela peut être compris comme une simple limitation de ce quenous appelons l’interprétation. C’est le fonctionnement du cerveau qui aboutit àcette façon de voir et à cette « manie » de vouloir tout rattacher à l’expériencemacroscopique que nous avons. J’aurai peut-être des éléments à apporter enfaveur de ce mode de fonctionnement par analogie du système nerveux lorsquenous parlons du langage. Ce que je vais dire n’est peut-être pas totalementexplicatif — je vous en préviens tout de suite — car je ne peux pas couvrir un telsujet en quelques mots ; mais le point essentiel, c’est que les erreurs commisespar des personnes atteintes de liaisons cérébrales ne se produisent pas parhasard. Elles constituent toujours un groupe d’éléments ayant une certainesimilitude. Ce qui est difficile pour le système nerveux, c’est de percevoir lesdifférences.

Hervé Zwirn

L’interprétation en terme neuropsychologique que vous donnez était déjàcelle que donnait Bohr quand il demandait qu’on ne cherche pas à trouver uneexplication en termes analogiques — malgré notre penchant naturel qui consisteà tenter d’expliquer les choses en les ramenant à du familier. Il disait :« L’interprétation de Copenhague est suffisante parce que le mode d’explicationfamilier que nous devons à notre expérience du monde macroscopique nes’applique pas au monde microscopique ».

En effet, vous avez raison, nous avons tendance à chercher des explicationsen termes analogiques. Ce qui est important, c’est que la physique a progressé detelle manière qu’aujourd’hui il y a un consensus en la matière quelle que soit latendance des physiciens qui en discutent. Car il n’y a plus de théories permettantde donner une explication analogue dans les termes à celles que l’on peut avoiravec, par exemple, la mécanique classique. Et la théorie de Bohm, qui, au départ,visait à donner une explication de nature ontologique ou à préserver un certainnombre d’analogies que l’on avait en physique classique, échoue, en fait à fairecela. Elle échoue car elle n’évite pas la non-localité ni la contextualité ; elle n’estdonc pas interprétable de la même manière que la mécanique classique l’est. Àpartir de là, le débat s’ouvre entre les différents avantages que l’on peut trouver àune autre théorie. Mais ce qui est d’ores et déjà certain, c’est que l’on aabandonné l’espoir de trouver des explications du monde microscopiqueanalogues aux explications que l’on a pour le monde macroscopique

Jean Staune

Je voudrais revenir sur la question d’Anne Dambricourt, qui me paraîtimportante pour les non-physiciens présents dans la salle.

Page 160: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

9

Ce que l’on peut affirmer est que :

1) Tout le monde ici présent est d’accord pour dire qu’il y a descorrélations à distance.

2) Tous les physiciens qui ont étudié la question de près sont d’accordpour dire que ce n’est pas la préexistence des valeurs qui explique cettefameuse corrélation à distance. C’est-à-dire que, lorsque MonsieurBertlmann rentre dans la pièce, il n’avait pas une chaussette rouge etune chaussette verte déjà dans le couloir le menant à la pièce. Il a deschaussettes très étranges qui sont à la fois rouge et verte. Et ce n’estque lorsqu’elles apparaissent à la lumière du jour que se révèle lacouleur rouge sur la première et que, dans ce cas-là, la seconde est decouleur verte. C’est exactement ce que John Bell — pour ceux qui ne lesavent pas — dit sur les chaussettes de Monsieur Bertlmann. Tous lesphysiciens quantiques reconnaissent cela, excepté quelques-uns, quisont bloqués pour des questions idéologiques et font dire à Bellexactement le contraire de ce qu’il a voulu dire dans son article. Jerends hommage à Jean Bricmont qui est absolument le contraire d’euxsur ce point-là.

3) En dehors des physiciens quantiques, il y a des physiciens quicontinuent à croire que l’expérience d’Aspect s’explique par leschaussettes verte et rouge qui existeraient dans ce couloir.

Bernard d’Espagnat

Il me semble que c’est un constat assez juste. Cela s’explique par deuxraisons. La première, c’est que les physiciens sont tous spécialisés dans undomaine — ce qui est légitime car on ne peut pas ne pas l’être, sinon on est unamateur. La deuxième, c’est tout simplement que beaucoup de physiciens que jeconnais ne sont pas intéressés par la question. Tout le monde a le droit de ne pass’intéresser à la non-localité.

Pierre Perrier

Je voudrais faire une petite adjonction à ce que disait Dominique Laplane.Je pense que, face à la mécanique quantique, il y a tout de même eu, parmi lesmécaniciens classiques, une gêne due au fait que les outils conceptuels desmathématiques ne prêtaient guère à une extrapolation cohérente avec lesdonnées. C’était plus qu’une simple question de prise sur le réel immédiat. Lesgens auraient même été heureux s’ils avaient trouvé un trajet dans lesmathématiques — un super-espace, etc. — dans lequel ils auraient pu s’exprimer.Je crois que c’est cela qui a été une vraie déception. C’était comme un échec decette école mathématique que de ne pouvoir faire cela. Je crois que c’est cela qui afait scandale en France. L’école mathématique française avait en effet

Page 161: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

10

l’impression qu’elle avait, par sa façon d’être, une prise plus importante quetoutes les écoles mathématiques mondiales sur les problèmes posés par desphysiciens.

Jean Petitot

Je ne comprends pas très bien votre position puisque, justement, lamécanique quantique a trouvé très rapidement les bons outils mathématiques. Etc’est parce qu’elle a trouvé les bons outils mathématiques et qu’elle estmathématiquement extraordinairement satisfaisante comme théorie, que tous lesproblèmes se posent. La petite question que je soulèverai, en tant quemathématicien d’origine, c’est pourquoi essaye-t-on d’investir tellement, sur leplan ontologique, à partir des descriptions mathématiques ? Pourquoi existe-ilcette tendance à systématiquement « ontologiser » à partir d’une ontologievéhiculée par la langue du sens commun ? Pourquoi, lorsque cette« ontologisation » fonctionne mal, vivre cela comme une sorte d’échec desthéories ? Personnellement, je n’ai pas de demande ontologique vis-à-vis de laphysique, donc cela ne me gène pas du tout que cette « ontologisation » ne soit paspossible.

Dominique Laplane

Mais la connaissance a un certain rapport avec l’ontologie.

Jean Petitot

L’ontologie n’a aucune raison d’être véhiculée par la langue.

Bernard d’Espagnat

Il y a effectivement, par tradition, une tendance très forte desmathématiciens s’intéressant un tant soit peu à la physique à conférer auxmathématiques une signification ontologique. Ce que beaucoup n’ont pas bienréalisé, c’est qu’il y a une autre manière d’utiliser les mathématiques, qui est dele faire d’une façon « opérationnaliste ». On définit une préparation de systèmephysique, un appareil de mesure, et les mathématiques sont chargées de nousdire, vu la façon dont on a préparé le système, ce que l’on observera ou avecquelle probabilité on l’observera. Il me semble que toutes les mathématiques dela physique quantique contemporaine sont de ce type-là. Pourtant, cela n’a pasencore été bien réalisé et beaucoup de personnes ont gardé l’idée que du momentoù on fait des mathématiques, ça doit être descriptif, donc d’une certaine manièreontologique.

Page 162: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

11

Hervé Zwirn

Je reviens aux questions que pose la théorie de Bohm. Est-elle défendable ?Si oui, pour quelles raisons ? Est-elle ou non préférable à la mécaniquequantique ? En ces matières, un point important a été soulevé, celui de la sous-détermination des théories. Il semble qu’il y ait un consensus à cet égard. Quetout le monde accepte l’idée que, même en-dehors de la mécanique quantique, il ya sous-détermination des théories. Or ceci est à relier au problème del’interprétation d’un formalisme, car, s’il y a sous-détermination des théories, celaveut dire que l’interprétation que l’on peut avancer, qui est directement liée à unformalisme donné, perd de son sens. Autrement dit, s’il existe deux formalismesdifférents qui empiriquement sont équivalents, l’interprétation que l’on fait dechaque formalisme étant différente — puisque chaque formalisme est différent—, on ne peut plus avoir une interprétation univoque et donc la tendancenaturelle que l’on aurait à dire : « voici une théorie qui marche, et j’interprète sonformalisme de telle manière qu’il décrive la réalité », cette méthode, que l’on avaittraditionnellement, échoue.

On en est donc arrivé à la conclusion que l’on a des formalismes et qu’on necherche plus à les interpréter ontologiquement parlant. On se contente de dire :« on va utiliser le formalisme car il fonctionne empiriquement ». C’est ce quedisait Jean Petitot tout à l’heure. J’interprète sa remarque comme voulant dire« je suis instrumentaliste ». Lorsqu’on dit « ce sont les mathématiques », cela veutdire, d’une certaine manière, que l’on oublie l’interprétation ontologique et quel’on fait de l’instrumentalisme ; que l’on se contente d’avoir le formalisme.

Arrivé à ce stade-là, pour revenir à la question initiale, je voudraisdemander à Jean Bricmont quels sont les critères qui font qu’il préfère choisir lathéorie de Bohm à la mécanique quantique, sachant que Michel Bitbol a tout àl’heure donné les siens ? Je partage les siens et je voudrais savoir quelles sont lesraisons pour lesquelles on pourrait être convaincu, en tant que physicien, si onest instrumentaliste, par la théorie de Bohm qui a les mêmes prédictions et quiest plus complexe ?

Jean Bricmont

Lorsque l’on a fait des objections qui sont basées sur une certaine vue de lasous-détermination, de l’expérience sensible ou de Kant, je ne vois pas commentje pourrais répondre pour justifier la théorie de Bohm sans, tout d’abord,expliquer mon point de vue sur cette vision générale de la philosophie dessciences. Ma vision n’est pas la même : elle est beaucoup plus opportuniste. Parexemple, je ne pense pas que l’instrumentalisme soit défendable comme théoriegénérale. Lorsque je parle des dinosaures, je ne pense pas que je parle desobservations des os de dinosaure que je vois, je parle des dinosaures. Et là,comme je suis dans l’espace représentable, je pense aux dinosaures commeexistant au temps de la Préhistoire. De même, si je parle de Jules César, je vais ypenser en termes réalistes, représentables, d’une personne, qui n’est pas

Page 163: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

12

simplement la connaissance que j’en ai. Il ne s’agit pas simplement des traceslaissées par la guerre des Gaules.

Qu’il s’agisse de l’instrumentalisme ou de ce qu’on appelle parfois leplatonisme ou bien encore de la représentation pure et simple, il est impossibled’enfermer la science dans ce genre de carcan. Dans ce que l’on appelle la scienceet dans ce qui est fructueux en science, on trouve de tout : du représentable, dumathématique, etc.

Hervé Zwirn

Deux mots sur ce que Jean Bricmont vient de dire et que je ne comprendspas. Vous avez l’air de considérer l’épistémologie comme un carcan quiemprisonne la science. Mais l’épistémologie n’est rien d’autre que s’interroger surle statut de la connaissance que l’on acquiert à travers la science. L’objet de sonétude est le statut de la connaissance que l’on acquiert à travers la science. Il nes’agit donc pas d’enfermer la science dans un carcan, mais de s’interroger sur lestatut de la connaissance que l’on acquiert à travers elle. Lorsque vous ditesqu’on veut s’enfermer dans la représentation, la question n’est pas de s’enfermera priori, la question est de savoir si les résultats scientifiques que l’on obtient, àtravers les théories que l’on a, nous permettent d’adopter telle ou telle position aposteriori. C’est donc loin d’enfermer la science a priori, puisqu’il s’agit de savoirquelle position a posteriori on peut adopter. Or, il se trouve malheureusementque la position naturelle ne fonctionne plus — du moins qu’on ne parvienne pas àla faire fonctionner — quand on se pose la question pour des particules.

Jean Bricmont

Ça dépend de ce qu’on appelle « position naturelle ». Mais vous avez parléde la sous-détermination. Pour moi, il est important de se rendre compte qu’il n’ya pas de sous-détermination entre la mécanique quantique et la théorie de Bohm.Je veux bien qu’il y ait sous-détermination entre celle-ci et d’autres théories.

Je vais vous donner un exemple. Prenez la théorie de Bohm et la théorie deNelson. Là, il y a vraiment sous-détermination, car dans la théorie de Nelson,l’équation de Bohm est remplacée par une équation stochastique. Il y a donc uneespèce de processus stochastique intrinsèque qui mène aux mêmes prédictionsobservables. Si l’on me demande à laquelle des théories je crois ontologiquement,je ne suis pas sûr de pouvoir choisir car je n’ai pas les moyens de les distinguer.Mais, en ce qui concerne la mécanique quantique, ce n’est pas du tout la mêmechose.

Ce que je n’accepte pas non plus, c’est l’idée selon laquelle il seraitimpossible de donner un contenu ontologique à la théorie. La théorie de Bohm estune réfutation absolue de cette idée qu’il est impossible de concevoir un telcontenu ontologique — si par « contenu ontologique » on entend quelque chosequi, exactement comme dans la physique classique, sort des limites de

Page 164: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

13

l’observable. Pour moi, les entités inobservables dans la théorie de Bohm jouentle même rôle que les entités inobservables en électromagnétisme, en gravitationou en relativité générale.

Michel Bitbol

Elle joue le même rôle que les modèles mécaniques chez Maxwell.Incontestablement, Maxwell a pu avoir besoin d’une sorte d’échafaudage, dereprésentation concrète, que lui fournissaient les modèles mécaniques de l’étherélectromagnétique. Certains physiciens sont d’ailleurs restés fascinés par cesmodèles et n’ont jamais pu vraiment s’en passer. La raison en était qu’ils nepouvaient admettre qu’il n’existe, dans ce cas, « aucun sujet au verbe onduler ».Mais d’autres physiciens ont très tôt cherché à s’en affranchir et se sont trouvéconduits à reconnaître qu’il n’y avait au fond rien d’autre dans la théorieélectromagnétique que ces rapports structuraux entre déterminationsmesurables que sont les équations de Maxwell. Leur point de vue s’est avérébeaucoup plus fécond que celui des partisans des modèles mécaniques, puisqu’il adonné naissance à la théorie de la relativité.

Jean Bricmont

Non ! Les modèles mécaniques, c’était pour expliquer, si je ne me trompe,la propagation des ondes électromagnétiques dans le vide. Si l’on dit à unphysicien que ces ondes électromagnétiques n’existent pas vraiment, il vousrépondra — et je serai d’accord avec lui — qu’il s’agit qu’une question d’ordremétaphysique. Mais je peux, en supposant qu’elles existent, rendre compte del’ensemble des phénomènes, alors que, lorsque je fais de la mécanique quantiqueordinaire, je ne rends compte de rien. Je n’ai qu’un algorithme qui me prédit siles voyants vont s’allumer en rouge ou en vert.

Jean Petitot

Trois remarques en style télégraphique.

La première concerne Kant. Michel Bitbol et moi parlons detranscendantalisme, ce qui n’a rien à voir avec le texte de Kant. Kant est le seulphilosophe que l’on réduit à son texte et contre qui on fait jouer l’histoire dessciences. Or, je suis désolé, mais Hume est incroyablement plus dépassé que Kantet cela n’empêche personne d’être empiriste. Ainsi, nous défendons simplementun point de vue transcendantaliste qui met en avant la différence entreobjectivité et ontologie et une réflexion sur les procédures de constitutiond’objectivité qui insiste sur le fait que l’objectivité est obligatoirement faible —c’est-à-dire qu’elle est toujours détachée d’une ontologie, d’un mondecomplètement externe, indépendant de nous. Kant est le plus grand penseurrelatif à cette question-là et, comme cette question est au centre de tous les

Page 165: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

14

débats sur la mécanique quantique, il ne peut être qu’utile de réfléchir sur Kant,comme pour, par exemple, des mathématiciens comme Hilbert, cela a été utile deréfléchir sur Euclide.

Deuxièmement, les mathématiques, lorsque j’en parle, ce n’est pas sous unaspect instrumentaliste, car j’estime que seuls ceux qui une conceptionsuffisamment forte de l’ontologie peuvent penser les mathématiques de façonpurement instrumentaliste. Si on élimine l’ontologie au profit de l’objectivité, laseule détermination qui reste pour l’objectivité, ce sont les mathématiques. Il n’ya rien d’autre — en dehors de l’empirique. Ce sont les mathématiques quisupportent tout dans une doctrine de l’objectivité, c’est-à-dire, si l’on est vraimentanti-ontologie. Et ça, ce n’est pas de l’instrumentalisme.

D’où une troisième remarque concernant la notion de phénomène. Je voustrouve un peu méchant avec la mécanique quantique classique. Elle ne parle pasuniquement de corrélations entre appareils. Ce qu’elle fait simplement, c’estinclure dans les axiomes mêmes de la théorie le fait qu’elle ne parle pas d’objetsau sens ontologique mais uniquement de phénomènes. C’est-à-dire qu’elle ne peutdéterminer que des phénomènes et, pour cela, il faut définir les phénomènes.Dans la physique classique, un phénomène, c’est un mouvement spatio-temporel.Or, selon notre conception, l’espace-temps est dans notre système visuel et n’ajamais existé à l’extérieur. L’ontologie, elle, est certainement non spatio-temporelle, comme l’affirmaient des philosophes comme Leibniz — à supposerqu’il y ait une ontologie. La mécanique quantique intègre simplement unnouveau sens de la « phénoménalité », à savoir ce qui est concrètementobservable.

À ce propos, j’aime bien la façon dont Alain Connes présente la mécaniquequantique. Il part des règles empiriques sur les raies spectrales et montre que sion utilisait un formalisme classique, les fréquences formeraient un groupe. Laconséquence des expériences sur les raies spectrales montre que l’on n’a pas ungroupe mais que l’on a des fréquences en UI-UJ, au lieu d’avoir des fréquences enUI qui forment un groupe. Et cela implique immédiatement la mécaniquequantique.

Hervé Zwirn

Je ne comprends pas pourquoi on accuse la mécanique quantique de ne pasêtre une théorie et de ne rien dire à propos de ce qui se passe. En effet, si l’on sepose vraiment la question de savoir ce qui se passe au niveau d’une mesure —même si on peut essayer de comprendre intimement ce que cela veut dire et qu’ilpeut y avoir des réponses différentes selon la position philosophique adoptée —,les mécanismes qui ont été explicités ces vingt dernières années avec ladécohérence permettent d’avoir une vision beaucoup plus claire, à présent, de cequ’est une mesure et de comprendre mieux ce qui se passe lorsque l’on mesurequelque chose. Notamment, le fameux antagonisme entre le principe de réductionde paquets d’ondes et les équations de Schrödinger a maintenant presque

Page 166: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

15

disparu. Ainsi, il y a de ce côté-là un progrès qui est suffisant pour dire qu’onpourrait, à un premier niveau, se contenter de cela.

Pierre Perrier

Je suis un peu embarrassé par ce débat car j’ai passé ma vie à faire desmathématiques instrumentalistes pour obtenir quelque chose qui fonctionne — etce sont de très bonnes mathématiques — mais il est tout de même vrai que cen’est pas parce qu’on a passé sa vie à faire des modèles et à voir que çafonctionnait qu’il ne reste pas un problème philosophique de base vis-à-vis de lanature en général — qui existe incontestablement, sans quoi tout dans notrefaçon de procéder s’effondrerait, puisque c’est parce qu’on essaye de prédire cequ’elle fait et que ça marche que l’on est content d’avoir travaillé. Donc on lareconnaît comme existante, ce qui est une position incontestablementphilosophique. On a admis une existence du réel avec sa force. Ce qui estcaractéristique de la théorie quantique, c’est qu’on a admis ça avec des règles quinous surprennent énormément aux vues de la mécanique classique. Mais c’est unformalisme qui marche. Je suis un peu fasciné par ce qui est dit, car cela veutdire qu’il y a toujours d’autres façons de prendre en compte un ensemble d’outilsqu’on a mis au point et de le reformuler tout en continuant à respecter commerègle du jeu essentielle que ça existe quelque part.

Jean-François Lambert

En entendant Jean Bricmont se définir comme un opportuniste, je medemande s'il ne se sent pas sur la pente glissante du relativisme. Parce que del'opportunisme au relativisme, il peut n'y avoir qu'un pas. Par contre, le côtépositif que je partage dans cette forme d'opportunisme, c'est l'idée qu'il n'y auraitpas d'impératif ontologique dans votre domaine. La mécanique quantique tellequ'elle est pratiquée ne débouche pas sur un impératif ontologique absolu. N'endéplaise à Jean-Pierre Changeux quand il déclare que seule une épistémologiematérialiste forte est compatible avec la science contemporaine. Je constate avecplaisir que vous ne vous inscrivez pas dans cette perspective d'impératifontologique fort en mécanique quantique. Malheureusement une telle réserven'est pas partagée par toutes les disciplines. Lorsque le même Jean-PierreChangeux affirme que « la thèse identitaire (en neurobiologie) s'impose désormaisen toute légitimité », il use d'un argument d'autorité dont il conteste, à juste titre,l'usage par ailleurs. Qu'il défende que cette thèse est la plus probable ou qu'il latrouve plus intéressante ou plus plausible, soit, mais cela ne devrait pas êtreprésenté comme un impératif ontologique.

À propos des mathématiques — que les mathématiciens me corrigent si jeme trompe — je crois me rappeler qu'à la question « que disent lesmathématiques ? », Frege répondait : « rien ». Donc, que le grand livre de lanature soit écrit dans le langage des mathématiques ne me gêne pas, au plan

Page 167: Colloque Sur Science

Académie des Sciences morales et politiques - http://www.asmp.fr

16

ontologique, dans la mesure où les mathématiques ne disent rien de l'ontologie enquestion.

Jean Staune interrogeait tout à l'heure : qu'est-ce qu'un spiritualiste peutattendre de la mécanique quantique ? J'avais envie de l'interrompre et derépondre : rien ! Je me définis comme un spiritualiste mais je ne suis absolumentpas d'accord avec une démarche comme celle de sir John Eccles, qui, du point devue spirituel, est, selon moi, contre-productive, et, du côté scientifique, esthérétique. Plusieurs intervenants ont souligné que, quand on parle de non-localité, il faut définir de quoi on parle. Mais lorsqu'on parle de spiritualité ou despiritualisme, il faudrait également préciser le sens qu'on accorde à ces termes.De quoi parle-t-on exactement lorsque l'on parle de spiritualité ? S'il s'agit del'esprit computationnel cognitif, il n'y a pas de vrai débat métaphysique autour decela. Il s'agit de processus que l'on est loin d'avoir compris, mais parfaitementnaturels. Mais la dimension réellement spirituelle, qui, pour moi, a plus à voiravec l'axiologie qu'avec l'ontologie, ne fait pas nombre avec la question de savoirsi la mécanique quantique est mieux expliquée par la théorie standard ou par lathéorie de Bohm. La réponse à cette question et celle aux interrogations de mesenfants sur le sens de la vie sont deux choses complètement différentes.

Anne Dambricourt

Je me place à l’autre bout de l’observation du réel. Ce qui m’intéresse estrelatif aux mécanismes de l’évolution et aux rapports entre le développement del’embryon et du fœtus. Il ne s’agit donc pas d’une question philosophique maisd’une question d’éthique. Le débat qui a lieu ici est fondamental et j’ai denombreuses questions à poser. Il me paraît évident que l’on ne peut pas nier etlaisser de côté la physique quantique et toutes les questions qui y sont poséeslorsque l’on est évolutionniste. Si je vous écoute et si ce débat me paraîtfondamental, c’est pace que ce débat a des implications éthiques, 15 milliardsd’années d’évolution plus tard, dans le domaine qui est le mien. La notion decriminalité, la notion de dignité, sont-elles mathématiquement fondées ?L’intuition de l’éthique est-elle ontologiquement suffisante ? Est-ellemathématiquement suffisante ? Il ne s’agit pas de savoir si Dieu existe ou non.On a des vraies questions de société : l’éthique peut-elle être débattue en sciencesuniquement à travers une conception scientifique de la réalité elle-même ? Quelssont les fondements naturels de l’éthique ? Y a-t-il un discours suffisant del’éthique ? Il s’agit d’un débat contemporain. On n’est pas dans les débatsthéoriques, on sera bientôt dans la pratique.

Bernard d’Espagnat

Dans son « adresse au séminaire de théologie de l’Université de Princeton »(1939), Einstein s’est nettement prononcé pour une réponse négative à votrequestion, en écrivant : il est [d’autre part] évident qu’il n’existe aucun chemin quiconduise de la connaissance de ce qui est à celle de ce qui doit être ».

Page 168: Colloque Sur Science

Introduction

par Bernard d’Espagnat

Les deux premiers volumes de cet ouvrage ont traité des implications philosophiques de ce que l'on appelle communément les sciences “ dures ”,: physique et astrophysique au premier chef. Il y a été constaté à quel point les connaissances récemment engrangées en ces domaines font évoluer nos idées concernant le monde physique observé, et combien sont étroits les liens existant entre celui-ci et l'esprit humain qui, pensant l’observer, en réalité le façonne. Les échanges de vues rapportés dans le présent, troisième, volume poursuivent l’examen des liens en question, mais en focalisant, cette fois, l’interrogation sur l’homme en tant qu’être vivant, conscient, pensant et agissant. L’étude de sa complexité - celle de son propre support biologique mais aussi celle des modèles qu’il édifie pour son usage - est abordée sous des angles originaux. Et une attention particulière est dévolue à la manière dont la pensée humaine comprend - faut- il dire “ découvre ” ou “ construit ” ? - des noèmes aussi fondamentaux que le sens et même le temps. La question de savoir si la conscience est ou non algorithmique est étudiée à la lumière des données les plus actuelles, de même que celle de la nature de ses relations, avec le cerveau d’une part et avec le langage de l’autre. Sans toutefois que soient oubliés – bien au contraire !– les problèmes d’une éternelle actualité que pose la conduite de notre existence.

Les textes ici offerts à notre réflexion sont présentés selon l’ordre logique ci-dessus décrit. Mais que le lecteur sache bien qu’ils sont totalement indépendants les uns des autres. Et qu’il choisisse donc en toute liberté ceux dont il préfèrera prendre connaissance d’abord.

Page 169: Colloque Sur Science

1 - Complexité, émergence, information et causalité

dans les systèmes biologiques

par Jacques Ricard

(L’article qui suit est une version très légèrement modifiée d’un texte publié par ailleurs)

La science classique, c'est-à-dire l'ensemble des activités scientifiques qui se sont développées depuis Descartes et ont vu leur apogée au XIXe et au début du XXe siècles, repose, me semble-t- il, sur trois principes fondamentaux:

- la recherche de la simplicité derrière une réalité apparemment complexe; - une approche réductionniste des phénomènes de la nature; - la conviction que la compréhension du réel, dans la mesure où il nous est accessible, repose

sur une chaîne linéaire de causes et d'effets. Je voudrais d'abord, pour illustrer ces points, citer un passage du "Discours de la Méthode" où Descartes [1] propose quelques préceptes qu'il estime nécessaires à la conduite de la pensée rationnelle. "Le second de diviser chacune des difficultés que j'examinerais, en autant de parcelles qu'il se pourrait, et qu'il serait requis pour les mieux résoudre. Le troisième, de conduire par ordre mes pensées, en commençant par les objets les plus simples et les plus aisés à connaître, pour monter peu à peu, comme par degrés, jusques à la connaissance des plus composés Ces longues chaînes de raisons, toutes simples et faciles, dont les géomètres ont coutume de se servir, pour parvenir à leurs plus difficiles démonstrations, m'avaient donné occasion de m'imaginer que toutes les choses, qui peuvent tomber sous la connaissance des hommes, s'entre-suivent en même façon et que, pourvu seulement qu'on s'abstienne d'en recevoir aucune pour vraie qu'il ne le soit, et qu'on garde toujours l'ordre qu'il faut pour les déduire les unes des autres, il n'y en peut avoir de si éloignées auxquelles enfin on ne parvienne, ni de si cachées qu'on ne découvre". Cette longue citation illustre parfaitement les trois idées qui me semblent fonder la Science classique. Toutefois, au cours des quinze ou vingt dernières années, quelques chercheurs sont arrivés à l'idée que le complexe n'est pas réductible au simple, que les "longues chaînes de raisons", dont parle Descartes, ne sont pas aussi évidentes qu'on aurait pu le penser, qu'il existe sans doute des lois générales de la complexité et des caractéristiques communes à tous les systèmes complexes [2-7]. Dans cet exposé, je voudrais évoquer, plus spécifiquement, quatre questions:

Page 170: Colloque Sur Science

- la question de la définition de la complexité et de l'émergence; - les principales caractéristiques de systèmes dynamiques complexes; - la nature et les caractéristiques de l'information des systèmes dynamiques complexes; - l'apport des études actuelles sur la complexité à quelques questions très générales d'intérêt

philosophique. 1 Réduction, intégration et complexité Considérons un système XY, constitué par l'association de deux sous-systèmes X et Y. Supposons qu'il soit possible de définir des fonctions, H(X,Y), H(X) et H(Y) qui expriment le nombre de degrés de liberté, ou la richesse potentielle, du système et de ses composants. Si H(X,Y) = H(X) + H(Y) (1) alors, les propriétés du système XY peuvent être réduites à celles de ses composants X et Y. XY n'est donc pas véritablement un système, mais simplement un ensemble résultant de l'union de deux sous-ensembles. L'équation (1) définit donc un processus de réduction. Si par contre H(X,Y) < H(X) + H(Y) (2) le système XY possède une richesse potentielle (ou un nombre de degrés de liberté) plus faible que celle de ses deux composants X et Y. XY est un véritable système présentant un phénomène d'intégration dont l'importance est exprimée par la différence entre les deux membres de l'inégalité (2). Il n'est donc pas possible de réduire les propriétés du système à celle de ses composants. Si enfin H(X,Y) > H(X) + H(Y) (3) alors XY possède plus de richesse potentielle (ou de degrés de liberté) que l'ensemble de ses deux composants X et Y. C'est donc un vrai système, mais qui possède des propriétés émergentes par rapport à celles de ses composants. Ce système est défini comme complexe. Les notions de complexité et d'émergence sont des notions anciennes, dans l'histoire de la philosophie, mais ce n'est que récemment qu'il est devenu possible de leur donner un contenu physique. 2 Principales caractéristiques des systèmes dynamiques complexes

Page 171: Colloque Sur Science

Les systèmes complexes, et particulièrement les systèmes biologiques, possèdent, en général, plusieurs caractéristiques importantes.

- Les systèmes dynamiques complexes renferment une certaine information et sont capables de moduler cette information en fonction de signaux émanant du milieu extérieur.

- Le comportement dynamique du système peut être décrit par ses propriétés dynamiques locales, qui expriment le comportement dynamique de ses éléments, et par ses propriétés collectives, caractéristiques du système pris dans sa globalité.

- Le système possède, en général, une organisation floue. Il n'est ni strictement organisé, ni totalement désorganisé.

- D'un point de vue thermodynamique, un système complexe est, en général, un système ouvert. Il échange de la matière et de l'énergie avec le milieu environnant et n'est donc pas à l'état d'équilibre

- Un système complexe possède une histoire. Son état actue l dépend de ses états antérieurs. Ainsi qu'on le verra ultérieurement, une telle situation réintroduit en Biologie la notion de flèche du temps.

- Un système complexe présente, en général, des effets non- linéaires. Ces effets non- linéaires doivent se traduire par des phénomènes d'émergence et de seuil.

Il est maintenant classique d'aborder l'étude de ces problèmes sur des systèmes biologiques très compliqués, comme le cerveau. Je crois qu'il est plus utile, au contraire, de s'intéresser à des systèmes beaucoup plus simples en apparence, mais qui présentent, toutefois, les caractéristiques essentielles de la complexité. Les réseaux biologiques, et en particulier les réseaux métaboliques, possèdent en général cette propriété. De plus, la notion de réseau transgresse les barrières, établies par la biologie classique, entre ses sous-disciplines. C'est ainsi que les réseaux métaboliques expriment la dynamique des réactions chimiques au sein de la cellule, les réseaux neuronaux décrivent les connections et la transmission de signaux entre neurones, et les réseaux de type prédateur-proie règlent la dynamique des populations animales. Pourtant, il est tentant de penser que la dynamique de ces réseaux, de nature très différente, répond à des lois communes. Dans ce qui suit, je limiterai mon intérêt à l'étude des réseaux métaboliques, en insistant particulièrement sur l'information de ces systèmes, qui est probablement la caractéristique la plus importante des phénomènes complexes. De plus, cette notion d'information renouvelle la vision classique qu'ont les biologistes moléculaires de l'idée même d'information biologique. 3 Réseaux métaboliques, complexité et information

Page 172: Colloque Sur Science

3.1 La notion de réseau Un réseau est un graphe constitué par un certain nombre de noeuds connectés les uns aux autres selon certaines règles. De manière très schématique, il existe trois classes de réseaux: les réseaux aléatoires, où les noeuds sont évidemment connectés de manière aléatoire; les réseaux réguliers, où les noeuds sont liés selon certaines règles topologiques strictes; enfin des réseaux ont une organisation située à mi-chemin entre celles décrites dans ces situations extrêmes, et possèdent donc une organisation floue [8-14]. Selon le mode de représentation adoptée, les noeuds de ces réseaux peuvent correspondre à des métabolites, ou à des réactions enzymatiques. Dans le cas de réseaux aléatoires, chaque noeud est connecté à un certain nombre d'autres noeuds. Si l'on appelle p(k) la probabilité de choisir au hasard un noeud connecté à k autres noeuds, cette probabilité varie en fonction de k selon une loi de Poisson. Le degré de connexion d'un réseau, et particulièrement d'un réseau aléatoire, est caractérisé par un paramètre que l'on appelle le diamètre du réseau. Le trajet le plus court séparant deux noeuds, peut comporter un petit, ou un grand, nombre d'étapes. On appelle diamètre du réseau le nombre moyen d'étapes de ces trajets les plus courts, pour toutes les paires possibles de noeuds. Il est évident que si l'on augmente le nombre de noeuds d'un réseau aléatoire, on augmente aussi son diamètre. L'analyse des séquences de génomes d'organismes variés permet, grâce à la consultation de banques de données, de savoir quels sont les enzymes présents chez ces organismes. Connaissant la fonction de chacun de ces enzymes, on peut ainsi reconstituer les réseaux métaboliques qui se déroulent effectivement chez ces systèmes vivants. On a pu ainsi établir que les réseaux métaboliques ne sont pas aléatoires. En effet, on peut observer que le diamètre de ces réseaux est remarquablement constant le long de l'arbre phylogénétique, quel que soit le degré d'évolution de l'organisme considéré. Il n'y a qu'un seul moyen d'expliquer ce résultat. C'est d'admettre que le degré de connexion des noeuds augmente en parallèle avec le nombre de ces noeuds. Au cours de l'évolution, les voies métaboliques sont de plus en plus nombreuses et comportent un nombre de plus en plus élevé de réactions chimiques. Le degré de connexion de ces voies augmente ainsi parallèlement au nombre d'étapes des réseaux. De plus, la densité des connexions varie au sein même de chaque réseau. Certains noeuds sont fortement connectés alors que d'autres le sont très peu. Chez les organismes les plus primitifs, le réseau métabolique est assez proche d'un graphe aléatoire. Ce réseau se complexifie et acquiert une organisation floue chez des organismes plus évolués [11]. 3.2 L'information des réseaux métaboliques Pour un grand nombre de biologistes moléculaires, l'information d'une cellule se trouve toute entière codée dans une séquence spatiale de signaux chimiques présents chez certaines

Page 173: Colloque Sur Science

macromolécules biologiques: acides désoxyribonucléiques (ADN), acides ribonucléiques (ARN) et protéines. La vision optimiste, et erronée, associée à cette idée est que la connaissance complète d'un génome et de ses produits d'expression, ARN et protéines, devrait être suffisante pour reconstituer l'ensemble des propriétés de l'organisme correspondant. C'est cette idée, largement répandue dans les revues scientifiques et les medias, qui est à la base du projet de recherche ambitieux de déchiffrage complet de la séquence du génome d'organismes variés, et notamment de l'homme. Il est clair que cette vision de l'information biologique n'est que métaphorique. La théorie de l'information, telle qu'elle a été formulée par Shannon [15-18], permet de définir quantitativement cette notion d'information biologique dans un contexte particulier, celui de la transmission d'un message. Il est toutefois possible de formuler ce même concept d'information dans un contexte différent, celui d'organisation. Considérons deux variables discrètes. La première, X, possède un certain nombre de valeurs finies, xi . La deuxième, Y, a, elle aussi, des valeurs discontinues différentes, yj. Si l'on associe X à Y, c'est-à-dire les valeurs x i à yj, il est possible de calculer la probabilité d'occurrence des états xiyj à partir des probabilités d'occurrence p(xi) et p(yj). Si ces évènements sont indépendants, on a alors p(xi,yj) = p(xi) p(yj), (4)

mais si ces évènements sont statistiquement corrélés p(xi, yj) = p(xi) p(yj/xi) = p(yj) p(xi/yj) (5)

Cette dernière relation est due à Bayes est exprime une probabilité composée, ou jointe, à partir de l'une des probabilités conditionnelles, p(x i/yj) ou p(y j/xi). L'idée de base de la théorie de Shannon consiste à associer la notion d'information à celle d'incertitude. Un message renferme d'autant plus d'information qu'il présente de risques d'erreur. Il est donc necessaire de définir une fonction permettant de quantifier ce risque d'erreur, ou ce degré d'incertitude, si l'on veut formuler une expression quantitative de la notion d'information. Une telle fonction doit satisfaire à deux axiomes: un axiome de monotonie et un axiome d'additivité. Par monotonie, on exprime l'idée que l'incertitude (et donc l'information) est d'autant plus grande que le nombre d'états, xi et yj, pris par les variables X et Y, est plus grand. Par additivité, on entend que l'incertitude des paires XY doit être égale à la somme des incertitudes de X et de Y, si ces variables discrètes sont indépendantes. La fonction d'une probabilité pi qui satisfait à ces deux conditions est fi =log(1/pi) (6) La fonction d'incertitude moyenne correspondante, H, est donc

Page 174: Colloque Sur Science

H = p i f i ?

i = - p i log p i ?

i (7)

On peut ainsi définir les fonctions d'incertitude individuelles moyennes de X et de Y H(X) = - p( x i ) log 2 p( x i )?

i (8)

H(Y) = - p( y j ) log 2 p( y j )? j

appellées aussi entropies de Shannon. Pour des raisons de commodité, que je n'ai pas le temps de discuter, on convient d'utiliser des logarithmes de base deux. On peut aussi définir une incertitude moyenne jointe, ou entropie jointe H X,Y = - p x i , y j log 2 p x i , y j ?

j ?

i (9)

On voit que si la relation (4) est satisfaite H(X,Y) = H(X) + H(Y) (10) Grâce à la théorie de Shannon, les fonctions H(X,Y), H(X) et H(Y) des relations (1)-(3) prennent un sens mathématique précis, celui de fonctions d'incertitude moyenne [17]. Si les variables discrètes sont corrélées et si p( x i ) = p( y j ) ?

j = p( x i , y j ) = 1?

j ?

i ?

i (11)

alors on peut démontrer que

H(X,Y) ≤ H(X) + H(Y) (12)

Cette relation exprime le principe de sub-additivité qui est au centre de la théorie de la communication, telle quelle a été formulée par Shannon. La différence entre les deux membres de l'expression (12) définit l'information, I(X:Y), du système I(X:Y) = H(X) + H(Y) - H(X,Y) (13) et le principe de sub-additivité implique que cette grandeur ne peut être que positive ou nulle. Au sens de Shannon, la notion d'information est donc liée à la notion de corrélation, ou plutôt de

Page 175: Colloque Sur Science

covariance, entre des variables discrètes. Ceci implique qu'il n'y a d'information, dans un segment d'ADN, que si celui-ci est exprimé. De même, la séquence d'aminoacides d'une protéine ne renferme pas, contrairement à ce que l'on voit souvent dans la littérature, d'information. Le principe de sub-additivité n'est fondé que lorsque les relations (11) sont satisfaites, ce qui est bien le cas pour un processus de communication, comme l'implique la théorie de Shannon. Ainsi que cela a été précisé plus haut, la notion d'information peut aussi être formulée dans un contexte différent, celui d'organisation. C'est précisément ce qu'expriment les relations (1) - (3). Dans ce nouveau contexte, toutefois, le principe de sub-addivité peut ne pas s'appliquer, car la relation (11) peut ne pas être satisfaite. C'est précisément ce qui se passe pour des réseaux enzymatiques. En effet, si des noeuds ne sont associés ni à la variable X, ni à la variable Y, alors les expressions (11) sont toutes inférieures à l'unité et l'on peut trouver des conditions pour lesquelles H(X,Y) > H(X) + H(Y) (14) Le réseau se comporte alors comme un système complexe, c'est-à-dire présentant des phénomènes d'émergence. Je reviendrai ultérieurement sur ce point. L'information, définie à partir de l'expression (13), prend alors le signe moins. On peut ainsi considérer l'information comme la part d'entropie qu'il faut ajouter à l'entropie jointe, ou déduire de celle-ci, pour obtenir la somme des entropies individuelles. D'une manière générale, on peut alors définir l'information comme la capacité qu'ont certains systèmes d'associer de manière spécifique des propriétés particulières, des symboles, des molécules, ou des groupes de molécules et d'engendrer ainsi des fonctions de nature diverse comme la communication de messages, l'émission de signaux, la catalyse etc. On peut obtenir des réseaux complexes, c'est-à-dire présentant des phénomènes d'émergence, à partir de systèmes enzymatiques apparemment très peu compliqués. De plus, si l'on accepte l'idée que le principe de sub-additivité puisse ne pas s'appliquer, on peut généraliser les principes généraux de la théorie de Shannon à des grandeurs qui ne sont pas en corrélation statistique, mais qui expriment une interaction physique entre deux phénomènes. Considérons, pour illustrer cette idée, le réseau métabolique le plus simple que l'on puisse imaginer, une réaction enzymatique isolée. Un enzyme E fixe deux substrats AX et B au niveau d'une région particulière de sa surface, le centre actif. Il catalyse la réaction chimique correspondant au transfert de X de AX vers B (Figure 1).

Page 176: Colloque Sur Science

E

EAX

EB

EAX.B E + A + XB

KA

K'AKB

K'B

k

Figure 1 Une réaction enzymatique simple à deux substrats Si la constante de vitesse catalytique k est très faible, on peut considérer que le système est à l'état de pseudo-équilibre. Dans ce schéma, on peut calculer la probabilité pour l'enzyme de fixer soit AX, soit B, soit AX et B. Ici, il n'y a pas de corrélation entre deux grandeurs qui, à l'état de pseudo-équilibre, possèdent chacune une valeur fixe. Par contre, la fixation de AX sur l'enzyme peut interagir avec la fixation de B, et réciproquement. On peut donc définir et calculer les incertitudes individuelles, ainsi que l'incertitude jointe H(AX) = - log2 p(AX) H(B) = - log2p(B) (15) H(AX,B) = - log2p(AX,B) On peut ainsi montrer que si p(AX/B) = p(AX) (16) le réseau ne renferme aucune information. Si p(AX/B) > p(AX) (17) l'information du système est positive. Par contre, si p(AX/B) < p(AX) (18) le réseau a une information négative. En fait, ce sont les valeurs des constantes d'équilibre KAX et KAX

', KB et KB

' qui définissent les situations décrites par les expressions (16), (17) et (18). Si

KAX = KAX'

et KB = KB', la relation (16) est satisfaite et le réseau ne possède pas d'information. Si

KAX' > KAX et KB

' > KB, on se trouve dans le cas décrit par la relation (17), le principe de sub-

additivité s'applique et l'information du système est positive. Si, à l'inverse, KAX > KAX'

et KB > KB',

on est dans le cas correspondant à la relation (18). Le réseau possède une information négative et

Page 177: Colloque Sur Science

est déjà, bien que fort peu compliqué, un système complexe. L'extension de la notion d'entropie à deux évènements en interaction physique conduit à se demander si cette nouvelle définition de l'entropie permet bien d'exprimer quantitativement la notion intuitive d'information. Il est évident que lorsque l'occupation d'un sous-site de l'enzyme par un substrat rend plus facile, ou plus difficile, l'occupation de l'autre sous-site par un autre substrat, cela revient à dire qu'une information est bien transférée d'un sous-site de l'enzyme à l'autre. Les notions d'entropie définies par les relations (15) permettent donc bien d'exprimer, par le truchement de l'équation (13), cette notion intuitive d'information qui se propage au sein de la molécule d'enzyme. Dans la situation que j'ai décrite jusque là, on considérait que la réaction enzymatique se déroulait au voisinage de l'état d'équilibre. Si maintenant on éloigne de plus en plus le système de son état d'équilibre, en augmentant la valeur de la constante catalytique k, les valeurs de p(AX), p(B) et p(AX,B) varient d'une manière telle que l'information du système devient négative et prend des valeurs de plus en plus faibles (c'est-à-dire des valeurs dont le module est de plus en plus grand). Ceci se produit même lorsque le système, à l'état d'équilibre, ne possède aucune information. Le réseau acquiert donc des propriétés émergentes qui sont entièrement dues au déroulement de la réaction en dehors de l'équilibre thermodynamique. C'est le flux de matière traversant le réseau qui est à l'origine de son information négative. Ce qui est vrai pour une réaction enzymatique isolée, est évidemment vrai pour l'ensemble des réactions enzymatiques de la cellule, connectées les une aux autres en un réseau métabolique. Une autre propriété intéressante des réseaux, que je voudrais brièvement évoquer, est qu'il peuvent posséder une histoire. Leur comportement dynamique peut, en effet, dépendre, non pas uniquement de la valeur prise par une variable, mais de son sens de variation. Ceci implique que le système, pour une même valeur de cette variable, aura des comportements différents selon que cette valeur aura été atteinte au terme d'une augmentation, ou d'une diminution. Le réseau présente un phénomène d'hystérésis, et est ainsi capable de "percevoir", non plus uniquement l'intensité d'un signal, mais le sens de variation de cette intensité. Le système fonctionne ainsi comme une sorte d'organe des sens élémentaire. Un tel comportement requiert que le réseau soit hors de l'état d'équilibre et que les équations qui décrivent son comportement soient non-linéaires. 4 Retour sur la définition de la notion de complexité Il existe dans la littérature scientifique de nombreuses définitions différentes de la notion de complexité [19]. Chacune de ces définitions possède évidemment sa cohérence interne mais n'a, le plus souvent, pas de relation claire avec ce que le sens commun englobe sous le terme de complexité. Or, pour être satisfaisante, une définition du concept de complexité doit satisfaire à

Page 178: Colloque Sur Science

deux exigences: posséder une cohérence interne dans un cadre formel rigoureusement défini; être compatible avec la signification du terme même de complexité, tel qu'il est utilisé dans le langage courant. L'exemple, évoqué plus haut, d'une réaction enzymatique fournit précisément un contexte permettant une telle réflexion. Si l'on considère que les divers états macroscopiques, par lesquels passe un enzyme au cours de la réaction qu'il catalyse, sont distribués d'une manière telle que les états les plus improbables, et donc les plus riches en information, renferment le plus d'énergie potentielle, l'émergence d'information dans un système complexe est équivalente à une émergence d'énergie. Ainsi, dans l'exemple de la réaction enzymatique considérée plus haut, si KA > KA

' et KB > KB

', le complexe

EAXB se situera à un niveau énergétique plus élevé que si KA < KA'

et KB < KB'

. La

thermodynamique permet de montrer que plus le niveau énergétique de EAXB est élevé et plus la constante catalytique, k, de la réaction sera grande. En d'autres termes, plus le système enzymatique de la Figure 1 sera complexe, et plus l'enzyme sera un catalyseur efficace. L'accroissement de la valeur de la constante catalytique (lorsque KA > KA

' et KB > KB

') peut donc être considéré comme

une propriété émergente du système. D'une manière plus générale, si l'on considère un réseau multimoléculaire correspondant à un processus de fixation-désorption de deux ligands x et y sur les n sites d'une protéine, un enzyme par exemple, le réseau correspondant possèdera quatre types de noeuds. Un (ou des) noeud(s) pour lequel(lesquels) la protéine n'aura fixé ni x, ni y, des noeuds, appelés primaires, pour lesquels la protéine n'aura fixé que des molécules de ligand x ou de ligand y, et enfin des noeuds secondaires pour lesquels la protéine aura fixé des molécules de x et de y. Un tel système multimoléculaire sera défini comme complexe si l'ensemble des niveaux énergétiques des noeuds secondaires, comparé à celui des noeuds primaires, sera suffisamment élevé pour que le sens de l'inégalité définissant la relation de sub-additivité soit inversé. Un tel système possèdera des propriétés émergentes par rapport à celles des sous-systèmes qui le constituent. 5 Implications philosophiques Je voudrais maintenant évoquer brièvement quelques problèmes généraux dont l'étude est renouvelée par les recherches actuelles portant sur les systèmes complexes: la nature de l'information biologique, la distinction qui doit être faite entre complexité et complication, la possibilité d'appréhender le réel par le déchiffrage de "longues chaînes linéaires de raisons", le problème de la flèche du temps.

Page 179: Colloque Sur Science

Il est clair qu'il n'est pas satisfaisant d'identifier l'information d'une cellule vivante a son information génétique. L'ensemble de l'information du réseau métabolique se superpose, en effet, à l'information potentiellement contenue dans l'ADN, de telle sorte que l'information globale d'une cellule est certainement beaucoup plus grande que sa seule information génétique. Dans cette nouvelle perspective, la notion même d'information est changée. Elle n'apparaît plus comme simplement liée à des phénomènes de communication, mais est aussi en relation avec l'organisation aléatoire, stricte, ou floue d'un système, par exemple d'un réseau métabolique. Elle ne peut plus être identifiée uniquement à une séquence spatiale de motifs chimiques dans une macromolécule. L'émergence et la complexité, définies par la non-application du principe de sub-additivité, se distinguent radicalement de la notion intuitive de complication. Un système apparemment non compliqué peut être très complexe et, inversement, un système compliqué, constitué d'un grand nombre d'éléments, peut ne pas l'être. De plus, les notions d'intégration et d'émergence sont directement liées à la notion d'information et à son signe. La réduction de la réalité à des séquences linéaires de causes et d'effets (les "chaînes de raisons" de Descartes) apparaît comme hautement simplificatrice. La notion de système, définie par la relation (2) ou (3), et dont le degré d'intégration ou d'émergence correspond à la quantité d'information, ne peut être comprise par la seule analyse de "chaînes de raison". Un autre problème, dont l'étude est renouvelée par les recherches sur la complexité, est celui de la flèche du temps. De nombreux physiciens considèrent que la notion de flèche du temps, telle qu'elle a été longuement discutée par Bergson par exemple, n'est qu'une sorte d'illusion statistique. Une image permet de comprendre cette idée. Si l'on considère une goutte d'encre introduite en un point précis d'un milieu aqueux, les molécules d'encre vont diffuser jusqu'à occuper la totalité du volume disponible. Si l'on filme ce processus et que l'on projette le film à l'envers, on observe le regroupement des molécules d'encre en un point précis de l'espace, ce qui est évidemment contraire au sens commun. Mais si l'on avait la possibilité de filmer une molécule d'encre et que l'on puisse projeter, à nouveau, le film à l'envers, on ne serait choqué en rien. La notion de flèche du temps n'aurait donc de sens qu'au niveau statistique, au niveau de très nombreuses populations de molécules. Ce que suggèrent les études sur la dynamique des réseaux complexes est que cette conclusion n'est, peut-être, pas vraie. On peut, en effet, faire une expérience de pensée où un tel réseau est constitué par un petit nombre de nœuds et de molécules et présente, tout de même, une histoire, c'est-à-dire les phénomènes d'hystérésis évoqués plus haut. Un tel système idéal, regroupant un petit nombre de molécules, serait tout de même capable de percevoir le sens de variation d'un signal, donc la flèche du temps.

Page 180: Colloque Sur Science

REFERENCES 1 DESCARTES R. (1992) Discours de la Méthode. Flammarion, Paris. 2 GALLAGHER R. and APPENZELLER T. (1999) Beyond Reductionism. Science 284, 79. 3 GOLDENFELD N. and KADANOFF L.P. (1999) Simple lessons from complexity. Science 284, 87-89. 4 WHITESIDES G. M. and ISMAGILOV R.F. (1999) Complexity in Chemistry. Science 284, 89-92. 5 HATWELL L.H. , HOPFIELD J.J., LEIBLER S. and MURRAY A.W. (1999) From molecular to modular cell biology. Nature 402 (sup.), C47-C52. 6 SETHNA J.P., DAHMEN K.A. and MYERS C. R. (2001) Crackling noise. Nature 410, 241-250. 7 RICARD J. (1999) Biological Complexity and the Dynamics of Life Processes. Elsevier. 8 STROGATZ S.H. (2001) Exploring complex networks. Nature 410, 268-276. 9 WATTS D.J. and STROGATZ S. H. (1998) Collective dynamics of 'small-world' networks. Nature 393, 440-442. 10 ALBERT R., JEONG H. and BARABASI A.L. (2000) Error and attack tolerance of complex networks. Nature 406, 378-381. 11 JEONG H., TOMBOR B., ALBERT R., OLTAVI Z.N. and BARABASI A.L. (2000) The large-scale organization of metabolic networks. Nature 407, 651-654. 12 FELL D.E. and WAGNER A. (2000) The small-world of metabolism. Nature Biotechnology 18, 1121-1122. 13 ALBERT R. and BARABASI A.L. (2002) Statistitical mechanics of complex networks. Rev. Mod. Phys. 74, 47-97. 14 BARABASI A. L., ALBERT R., JEONG H. (1999) Mean-field theory for scale-free random networks. Physica A 272, 173-187.

Page 181: Colloque Sur Science

15 SHANNON C.E(1948) A mathematical theory of communication. Bell System Technical Journal 27, 379-423, 623-656. 16 SHANNON C.E. (1949) The Mathematical Theory of Communication. University of Illinois Press. 17 YOKEY H.P. (1992) Information Theory and Molecular Biology. Cambridge University Press. 18 ADAMI C. (1998) Introduction to Artificial Life. Springer Verlag. 19 HORGAN J. (1995) From complexity to perplexity. Scientific American, June, 104-109.

Page 182: Colloque Sur Science

2 - Le cancer: un programme de survie cellulaire

hérité des bactéries et déclenché par les agressions environnementales

par Lucien Israël

La cancérisation des cellules chez les organismes supérieurs est jusqu'ici considérée comme le résultat de mutations au hasard, qui s'additionnent au fil du temps, en raison de diverses agressions biochimiques, et qui peuvent avoir pour résultat de déclencher une prolifération incontrôlée, échappant aux contraintes exercées par l'organisme. On soutient ici une thèse, exposée dès 1996 [1],[2], selon laquelle cette progression dans la malignité qui rend les cellules cancéreuses de plus en plus propres à survivre et à résister aux défenses de l'hôte comme aux thérapeutiques, n'est pas liée à des mutations au hasard mais au réveil d'un véritable programme de survie, déjà mis au point dans la nature chez les archéobactéries et qui leur a permis de survivre à toutes les agressions environnementales depuis 3 milliards et demi d'années. Ce programme, décrit par les bactériologistes sous le nom de programme SOS [3], et parfaitement vérifié et confirmé, est lié à l'expression, en réponse à ces agressions (modifications de la température, de l'acidité, des ressources nutritionnelles, dommages chimiques, présence d'antibiotiques etc.), de gènes réprimés dans les conditions normales. Or une partie importante de ces gènes (Rad 51, mdm2, bcl2, hsp, mdr, le gène producteur de télomérase, certains gènes de réparation) a été héritée sous forme d'homologues par les cellules des organismes supérieurs et est précisément réexprimée dans les cancers. Ce fait a été établi, non pas par nous-mêmes mais à la suite de travaux expérimentaux, et simplement en comparant, ce qui n'avait pas été fait auparavant, des faits établis par les bactériologistes et ceux récemment observés par les spécialistes de l'oncogénique. Il est donc possible ainsi de se représenter ce qu'est le phénomène cancéreux, et sa place dans l'évolution des êtres vivants. Les filiations génétiques obligatoires dans la chaîne du vivant ont conservé ce programme de survie, du reste utile dans diverses circonstances, dont la réparation des plaies. Mais un contre programme, fait de gènes désignés sous le nom d'antioncogènes, s'est constitué en vue de protéger les êtres pluricellulaires contre la tendance de cellules isolées à proliférer de façon incontrôlée au détriment de l'équilibre organique. En l'absence de mutations héritables, qui surexpriment les oncogènes ou sous-expriment les antioncogènes, les cancers n'apparaissent qu'à la suite de mutations délétères qui, par exemple, endommagent les mécanismes de réparation génétique. Après quelques événements de cet ordre, c'est un véritable programme de survie qui se met peu à peu en place et confère progressivement aux cellules de la population touchée la capacité de proliférer de façon incontrôlée, de surmonter les contraintes et les défenses, et de diffuser, ainsi que tend à le faire une colonie bactérienne agressée. Quelques éléments sont venus, depuis notre publication initiale, conforter cette thèse. Il a été montré que diverses substances antibiotiques avaient un effet anticancéreux [4], [5], telles les quinolones et la clarithromycine. Par ailleurs une prédiction contenue dans notre première publication, à savoir que les cellules cancéreuses devaient, au sein d'une tumeur maligne, échanger des gènes de résistance ainsi que le font les bactéries dans une culture soumise à diverses agressions, a été vérifiée de façon indépendante [6], [7]. Il reste à découvrir si le gène Lex A, qui réprime en l'absence de dommages tous les gènes du système SOS, a un homologue chez les organismes supérieurs, comme nous le supposons, ou si cette tâche y est remplie autrement.

Page 183: Colloque Sur Science

Mais quoi qu'il en soit, on peut désormais concevoir que le cancer, programme de survie enfoui dans les cellules des êtres supérieurs et réactivé en cas de menaces, ne sera pas éradiqué et cela d'autant moins que l'accroissement de la longévité entraîne une augmentation de l'exposition à des dommages qui peuvent le déclencher. Mais la vision proposée peut ouvrir la voie à des approches nouvelles en matière de prévention et aussi de traitement.

RÉFÉRENCES [1]. Israël L. Tumour Progression: Random Mutations or an Integrated Survival Response to Cellular Stress Conserved from Unicellular Organisms? J.Theor. Biol. 178: 375-380, 1996. [2]. Israël L. Cancer as a survival program of individual cells inherited from prokaryotes, conserved but repressed in cells from higher organisms and unveiled by environmental aggressions. ANN. Med. Interne, 147(6): 387-388, 1996. [3]. Friedberg E.C., Walker G. and Siede W. SOS responses and DNA damage tolerance in prokaryotes. DNA Repair and Mutagenesis, Washington : ASM Press, 1995. [4]. Xia Y. et al. Recent advances in the discovery and development of quinolones and analogs as antitumor agents. Curr. Med. Chem. 6(3) : 179-194, 1999. [5]. Mikasa K. et al. Significant survival benefit to patients with advanced non-smamm-cell lung cancer from treatment with clarithromycin. Chemotherapy, 43(4) : 288-296, 1997. [6]. Cadman E., Wong D. and Liu F. Drug resistance genes can be spontaneously transferred among malignant cells. Cancer Drug Resistance, (Hall T.ed.) New York : Alan Liss Press, 1986. [7]. Foty R.A. et al. Prostate cancer cells have the ability to transfer drug resistance genes to each other. Proc. Amer. Assoc. Cancer Res. 40 : 2701, 1999.

Page 184: Colloque Sur Science

3 - Modélisation et complexité

par Pierre Perrier

1 Modélisation La modélisation est la recherche d’une expression simplifiée de la Nature dans sa complexité, qui permette d’en prévoir le comportement dans un intervalle de temps et d’échelle de grandeur. En simplifiant le Réel, le modèle donne accès à des prédictions plus ou moins précises selon la complexité résiduelle à l’échelle considérée, prédictions accessibles à la manipulation algébrique ou algorithmique. De façon pratique, l’usage de l’ordinateur ouvre, grâce à la modélisation, un champs scientifique nouveau avec sa méthodologie propre de validation expérimentale du modèle et d’usage de celui-ci pour prédire des comportements inaccessibles à la mesure car situés dans le passé ou le futur lointain ou à des échelles trop grandes ou trop petites pour être instrumentées. L’expression complète et cohérente d’un modèle est exigée pour être traitée sur ordinateur, en sorte que l’analyse numérique des modèles a beaucoup fait progresser la science dans la rigueur de ses hypothèses ; on exige la connaissance de la sensibilité des comportements de la Nature aux faibles perturbations, jusqu’aux limites imposées au champ du calcul ; on cherche la simplicité des modèles, qui a elle-même accru la modestie des scientifiques face aux bornes de leurs capacités prédictives ; elle a éliminé l’illusion que les “ lois ” de tous les comportements physiques, voire psychologiques ou sociaux, seraient accessibles à la Science assurant une mathématisation de toute la Nature. La vérification expérimentale des hypothèses faites pour bâtir le modèle est à fonder dans un cycle de vérification expériences-calculs, validation qui met en cause, et la validité des expériences, et leur précision propre, et la validité des calculs avec leurs erreurs de programmation, et leur approximation discrète d’expressions mathématiques en général continues. La restitution d’un ensemble d’expériences singulières est nécessaire pour accéder à la moyenne que vise à calculer le modèle. Ainsi l’indétermination quantique fondamentale et l’application de lois des grands nombres contribuent à exclure du champ des modèles les événements singuliers ou faisant intervenir la non-localité et la dépendance vis à vis du processus de vérification. L’épistémologie de l’approche par modèle se révèle ainsi limiter singulièrement les ambitions explicatives de la science ; elle permet de considérer la connaissance scientifique dans un cadre plus équilibré et rigoureux. Par exemple, l’hypothèse de la constance de la “ constante ” d’attraction universelle se vérifie par la cohérence des résultats de prédiction du mouvement des astres et la capacité donnée aux navigateurs de “ faire le point ” par référence à des tables prédictives du mouvement des astres, assimilés à des points dans le ciel. La modélisation se révèle maintenant un instrument efficace d’acquisition et de validation de connaissances nouvelles quand elle s’applique à restituer la cosmogénèse. 2 Complexité et turbulence Si la modélisation est une étape nécessaire de saisie du réel, c’est parce que celui-ci est complexe par son grain et sa dynamique. Le réel est granuleux et non pas indéfiniment délié ; il est fini et borné, individualisant des fermions exclusifs et interdisant d’interpoler le comportement à petite échelle du comportement à grande échelle. Le réel observable à la taille humaine est à mi-chemin,

Page 185: Colloque Sur Science

en échelle logarithmique, des plus grandes et des plus petites tailles. Ainsi les mots utilisés par la science dans un sens précis avaient une valeur analogique (objet, particule, onde, point) et les verbes représentaient les actions et interactions entre eux (déplacement, ligne droite, structure en formation, en destruction chaotique, transmission de chaleur ou de messages informatifs…). L’usage des mêmes mots et verbes en philosophie et métaphysique pouvait induire des conflits de sens ou, au contraire, des convergences dans l’explication conjuguée du comment et du pourquoi. L’usage des modèles relativise mieux ces rapprochements que le formalisme mathématique platonicien, qui vise à l’explication totale. Mais c’est la complexité du réel qui, en gardant le déterminisme macroscopique, a le plus relativisé la prétention à utiliser la formulation mathématique des modèles comme métaphysiquement explicative. Deux types de complexité ont été révélés par la pratique de la modélisation : la complexité des arrangements géométriques (on disait autrefois des formes) et la complexité de la dynamique. Le nombre d’édifices moléculaires possibles à partir des corps simples, leur arrangement aléatoire avec diverses échelles structurales, ont introduit une énorme diversité dans les agrégats qui nous entourent, éloignant deux états extrêmes, le “ tout cristal ” et le tout gazeux homogène “ amorphe ” respectant les lois des grands nombres. La technologie actuelle s’est saisie des agrégats fibrés, feuilletés, alternativement amorphes et cristallins, en s’inspirant de la complexité de la Nature sur la terre ; il en résulte l’obligation de modéliser des mélanges de domaines ayant des équations de comportement différentes, des interfaces multiples et singulières, et l’outil mathématique de choix pour remonter des petites échelles vers les grandes est l’homogénéisation et l’identification de formes “ fractales ”, c’est-à-dire à répétabilité ou différenciation de formes multiéchelles. La complexité dynamique résulte du comportement instationnaire de parties du réel en mouvements irréguliers, provoqué par des interactions multiples. Poincaré, en identifiant mathématiquement le comportement des systèmes dynamiques, en a montré l’imprédictibilité à temps fini, et l’observation de la plupart des phénomènes dynamiques naturels a confirmé que cette imprédictibilité conduisait presque partout à des comportements chaotiques imprévisibles même s’ils étaient déterministes à notre échelle. L’usage de modèles numériques a permis de retrouver et préciser ces notions générales, en leur adjoignant une notion “ d’explosion combinatoire ” essentielle : la succession des bifurcations, comme la succession d’événements à seuils, ou à tests logiques (dans les programmes d’ordinateur comme dans les systèmes biologiques gérant de l’information) conduit à un nombre de cas possibles exponentiellement croissant avec leurs occasions. Cette croissance exponentielle des possibles exclut de les explorer tous par le calcul, puisqu’ils sont rapidement en nombre supérieur à tout ce qui pourrait être mémorisé ou simulé avec toutes les particules de l’univers. La modélisation de la turbulence devient ainsi un objectif scientifique dans chaque cas d’étude particulier de matière condensée (écoulements de fluides ou de matière…) dont l’importance est analogue scientifiquement à celle de l’étude de phénomènes de base à l’échelle quantique et pratiquement plus grande puisqu’elle gouverne toute la prédictibilité nécessaire en technologie. 3 Du microscopique au macroscopique : critique de la notion d’émergence L’existence fréquente de structures macroscopiques sans source microscopique évidente sinon le bruit usuel (résultant de la turbulence à une échelle inférieure, par exemple le bruit thermique) a pu faire croire à une “ loi d’émergence ” qui serait comme surajoutée (ou à surajouter dans les modèles) aux phénomènes moyens aléatoire usuels. La modélisation numérique plus fine des modèles ne consiste pas à simplement raffiner le pas de calcul en espace ou en temps, mais à ajouter à l ‘équation directe homogénéisée, l’équation linéarisée et son équation adjointe. Celle-ci donne les zones de sensibilité du phénomène observé dans le domaine considéré et compte tenu de ses limites

Page 186: Colloque Sur Science

et interfaces. L’équation linéarisée fournit une série de modes correspondant à des énergies et périodes décroissantes. On peut alors ajouter à la résolution de l’équation de base celle du système dynamique des modes propres instantanés excités en ses points sensibles du domaine étudié (et le plus souvent sur ses limites) par le bruit à micro-échelle et on voit “ émerger ” les modes les plus amplifiés sous la forme de “ structures ordonnées ” plus ou moins stables. On n’a jamais trouvé jusqu’à présent “ d’émergence ” supplémentaire aux modèles usuels macroscopiques mais seulement le besoin d’une modélisation plus précise, qui prenne en compte correctement la croissance des structures favorisées par les conditions aux limites et le bruit microscopique aux endroits réceptifs. En fait, les structures émergentes sont comme les produits du “ moule des modes propres ”, moule qui est imposé par les conditions aux limites. Les équations de base de la physique n’induisent ou ne sont cohérentes qu’au jeu des particules élémentaires ; celles-ci ne génèrent pas de structure aux tailles très supérieures aux limites imposées et informant ces formes dites émergentes dont elles deviennent les sources ou les moles. On pourrait aussi imaginer que les “ chaînes de bits ” porteuses d’informations et réalisées par tous moyens matériels (permettant leur duplication ou exploitation) auraient elles-mêmes de “ structures internes signifiantes ” résultant de “ l’émergence ” de messages à partir d’un bruit les codant aléatoirement. Le même raisonnement, reposant sur le déterminisme des modèles qui leur donneraient naissance, exclut qu’ils soient générés autrement que par modes induits par des messages déjà portés par les conditions aux limites. Ainsi retourne-t-on au vieux principe de cohérence philosophique qui veut que le plus (de forme) ne sorte pas du moins (de forme ou d’information) ; on est renvoyé à une source au niveau quantique de toute forme émergente qui ne résulte pas d’un moule préexistant et formant la forme directement ou par l’intermédiaire de modes amplifiés qu’elle excite. A titre d’exemple le processus de transition à la turbulence d’écoulements cisaillés initialement laminaires fait appel, comme on commence à le valider par modélisation, à l’amplification de séries de plusieurs modes propres se transmettant leur énergie de perturbation sur souvent plus de 5 ordres de grandeur à partir d’un bruit de fond très faible venant d’une perturbation très faible des conditions aux limites en fluctuation de vitesse ou de pression (ondes sonores). L’état final comprend un certain nombre de grosses structures morphologiquement semblables et interagissant pour nourrir le chaos général de la turbulence suivant cependant des “ lois statistiques moyennes ” assez précises. La physique des processus muiltiéchelles se révèle ainsi d’une richesse extrême déjà complètement contenue dans la plupart des modèles disponibles actuellement. On se rappellera pour bien saisir la complexité de la physique réelle que le passage des interactions quantiques des particules au modèle de l’équation de Schrödinger, à celui du modèle de Boltzmann, à celui de l’équation de Navier-Stokes des fluides et aux équations avec modèle de turbulence 3D puis 2D géostrophique fait intervenir 5 échelles de modélisation en mécanique des fluides usuelle (pour la prédiction des climats sur plus de 20 ordres de grandeur) et que chacun de ces modèles “ informe ” les grosses structures. On notera également que l’identification de la source des événements singuliers (par exemple la tempête de fin de siècle) est difficile mais non exclue de toute prédiction probabiliste. C’est la réceptivité de l’équation modèle finale et la possibilité de saturation non linéaire à ce niveau des formes extrêmes qui filtreront l’émergence à partir du bruit aux échelles inférieures, excepté s’il y a cohérence entre les échelles ; ceci est a priori extrêmement improbable mais peut fixer la probabilité finale de l’événement exceptionnel étudié.

Page 187: Colloque Sur Science

4 Quelques éléments conceptuels et pratiques acquis par l’analyse numérique En utilisant la rigueur mathématique dans l’examen des procédures algorithmiques de résolution des équations modélisées et des traitements d’information, les spécialistes ont dégagé un corps de doctrine conceptuel et pratique qui assure une nouvelle connaissance des mouvements des corps inertes, des corps vivants informés au cours du processus d’évolution et des intelligences informées au cours des processus d’éducation ou d’apprentissage. Examinons successivement ces acquis conceptuels et pratiques. Dans le domaine de la simulation numérique des modèles physiques, il est apparu rapidement (avec la progression de la vitesse de calcul et de la taille des mémoires des super ordinateurs) que la mise en œuvre de l’algorithmique comme moyen de discrétiser des équations aux dérivées partielles devait faire face à trois problèmes propres à ces équations : A.1 La régularité des solutions données par un algorithme ne garantissait pas leur conformité au modèle continu. Celui-ci est obtenu par homogénéisation mathématique dans les meilleurs des cas, ou simplement par inférence des propriétés de gradient des paramètres physiques du réel observé à l’échelle modélisée. Ainsi faut- il démontrer tôt ou tard mathématiquement l’existence et l’unicité des solutions du problème posé et la cohérence de la donnée des conditions aux limites et des conditions initiales du calcul. Comme le temps de calcul doit être fini pour une discrétisation du problème homogène aux besoins, il importe de maîtriser le processus de descente vers la solution, de l’accélérer le plus possible surtout si l’on suit un phénomène instationnaire. Il importe donc de savoir si la solution cherchée est dans un bassin attracteur large (stable) ou pointu (instable), avec éventuellement des vallées d’approche bien marquées, et si la solution fait partie d’un ensemble dense de solutions (un trou d’obus parmi des milliers d’autres d’un champ de bataille ?). A.2 Le processus de descente lui-même peut être plus ou moins efficace. Plus on s’adresse à une descente mathématiquement régulière, plus on voudra utiliser la connaissance précise de la solution au voisinage du point de descente et ne pas avancer au hasard mais selon le gradient de la solution au premier, deuxième ordre… Le nombre de pas de calcul N va ainsi diminuer et la convergence

sera en 1/N, 1/N2… On peut aussi utiliser l’état adjoint, contrôler de façon optimale la variation des

paramètres de descente et espérer converger en e-N puisque l’on connaît le but visé : satisfaire en tout point du domaine de calcul l’équation discrétisée et respecter les conditions aux limites. Dans ce cas la convergence sera de plus en plus rapide et l’on convergera uniformément vers la solution sans générer de bruits parasites au cours de la descente. A.3 Enfin, la précision du résultat dépendra de la bonne discrétisation du problème. Pour un nombre donné de points de contrôle de la solution, il est bien sûr évident que la précision sera d’autant meilleure que l’on mettra davantage en jeu les points où la solution varie, pour que l’interpolation entre ceux-ci ne génère que le minimum d’erreurs. Malheureusement il faudrait connaître la solution pour mettre les points au mieux, et on choisit donc de raffiner à mesure de la génération de la solution, avec le risque que la solution fine ne soit pas captée en cours de processus. B. Si l’on s’intéresse maintenant à une chaîne de bits ou de données décrivant générativement l’objet solution du problème, on peut l’obtenir, soit par classe d’équivalence à un objet connu (génération de données décrivant le réel selon un programme déjà connu, c’est l’objectif de la plupart des traitements d’images) soit par dépendance logique générant un programme et ses

Page 188: Colloque Sur Science

données ; c’est le cas des algorithmes génétiques. Dans ce cas on doit également disposer d’une fonction coût, analogue à la distance à la satisfaction de l’équation mais qui ne peut générer facilement des gradients et est donc condamnée à la convergence extrêmement lente d’une progression aléatoire (convergence en un sur racine de N) et à condition que les fluctuations soient bien normées (c’est pour cela qu’on travaille au niveau des bits). C. Enfin on peut essayer de fabriquer un “ modèle opératoire ” qui pour toute entrée de conditions aux limites donnera directement une solution moyenne. On constitue alors une interface de nœuds de discrétisation au bord d’un réseau, et la sélection de données compatibles issues de solutions fournira les “ poids ” de corrélation entre ces données assurant la prédiction d’un nouveau cas. Si l’on prend N réalisations de la Nature ou d’une simulation complexe de celle-ci en entrée E, alors on obtiendra une approximation des traits saillants de ces dernières dans le domaine considéré. On n’a plus affaire à N itérations de descente mais à un apprentissage de N situations permettant de prédire une nouvelle situation homogène aux précédentes. Ce modèle est extrêmement puissant puisqu’il ne différencie pas l’aspect fonctionnel et l ‘aspect paramétrique et en met une image holographique repartie dans le réseau. Il peut donc extraire aussi bien des systèmes de contrôle automatique de trajectoires que le trait saillant (conceptuel au sens de l’utilisateur) d’un ensemble de données ou de comportements. Il sera utilisé en technologie quand ses limites seront mieux cernées car hors des limites son comportement peut devenir imprévisible bien que déterministe. 5 Application pratique des concepts précédents et implications philosophiques On va appliquer les concepts précédents tels qu’on peut les utiliser pour la prévision de phénomènes physiques complexes, à la critique conceptuelle de l’évolution génétique et de l’apprentissage des vivants. a – Deux types de “ prévisions dans le complexe ” sont importants pour l’homme. La prévision de l’évolution moyenne de son environnement et celle des aléas extrêmes dont il doit se couvrir. Il est clair que l’évolution moyenne ne peut être prédite exactement à partir de la résolution de l’équation homogénéisée. Il faudrait pour cela que les processus modélisés soient assez peu non linéaires, ni “ hachés ” .en même temps, pour que leur prévision moyenne ne soit pas entachée d’erreur. Or les effets à long terme peuvent venir d’effets qui sont minimes à court terme dans la boîte en temps et espace où se fait l’homogénéisation. Il suffit que l’effet cumulé d’événements rares ait une influence majeure : par exemple si tel polluant ne se dissipe pratiquement pas et n’est accumulé que pendant une très faible partie du temps (inversion de température rare, par exemple), il n’en résulte pas moins un effet notable à terme. De même si un événement extrême détruit un cycle écologique sa reconstitution peut être longue et non représentée par la moyenne, et les accidents naturels restent donc redoutables. b – L’analyse des êtres vivants montre deux éléments contradictoires. Le système de dérivation des différentes espèces vivantes est bien établi par de nombreux témoins du passé datables confirmant deux éléments importants de leur dérivation :

- d’une part, un dérivation en vallées et bassins attracteurs bien distincts mais reliés, qui éliminent un descente dans un système de convergences séparées, espèces par espèces,

Page 189: Colloque Sur Science

- d’autre part, des bassins attracteurs assez larges, où la variabilité a permis la sélection dirigée par l’homme, conduisant au cheval de trait et de course ou au petit chien d’accompagnement et au Saint Bernard (très loin par la taille mais fonctionnellement identiques).

Mais on note avec étonnement un raccourcissement du temps de convergence vers les espèces les plus complexes, temps d’autant plus court qu’elles étaient plus complexes : du milliard d’années

depuis les virus et les bactéries simples (103-4 bits de message) jusqu’aux bactéries avec

photosynthèse (106 bits de message génétique), puis des tranches de demi-milliard d’années encore

vers l’algue verte (107 bits), les invertébrés (108 bits) et les animaux supérieurs (109 bits), dont le nombre de générations est très faible par siècle . Ce type de convergence est exponentiel et donc incompatible avec le processus de dérivation continue aléatoire de l’algorithme correspondant. En fait la variabilité dans les espèces et les temps d’adaptation aux écosystèmes sont complètement compatibles avec l’algorithmie génétique sélectionnant par le “ plus reproduit ” les variations aléatoires connues expérimentalement ; mais les “ sauts ” entre espèces ne le sont pas. Il faut admettre un processus complémentaire de contrôle optimal réalisant la fonction d’une émergence contrôlée ; les algorithmes les plus évolués à “ recuits simulés ” (mélange aléatoire-déterministe) échappent seuls à cette descente trop lente. Mais ils ne sont pas encore exponentiels. De toute façon, la densité des molécules à base carbone de poids moléculaire élevé et viables que l’on trouve expérimentalement actue llement dans les biopuces confirme que l’émergence par le hasard n’a pu jouer que pour les protéines les plus simples, par les “ moules ” de ces protéines dans la “ machinerie ” des cellules. Des interactions multiples des systèmes fonctionnels du vivant résultent de la coexistence de protéines à destination fonctionnelle spécifique dans les mêmes milieux aqueux non partitionnés ; ceci oblige à des produits de probabilité énormes dans une sélection aléatoire, que réalisent mal les médicaments aux effets secondaires toujours très élevés. On rappelle qu’une décomposition cartésienne simple en n unités fonctionnelles indépendantes reporte sur les n ! interfaces la réelle complexité du choix de molécules compatibles efficaces parmi une foule de molécules inefficaces. L’ajustement au milieu, par contre, est parfaitement décrit par les algorithmes génétiques. c – Enfin la modélisation de la convergence faible des apprentissages des réseaux neuronaux reconstitue bien l’efficacité et la durée des processus d’apprentissage parents-enfants et enfants-enfants, par jeux et traditions de société permettant la multiplication des expériences de dressage et d’ajustement au réel. Cependant on doit noter que ceci oblige au développement préalable du réseau des capteurs et des effecteurs qui permettront la mise au point des gestes contrôlés puis des comportements autocontrôlés et des comportements sociaux nourris par l’apprentissage et la communication avec l’extérieur. Problème de poule et d’œuf… Plutôt que d’éliminer les questions philosophiques ou métaphysiques comme mal posées grâce à une supposée puissance explicative du hasard et de l’émergence, les acquis récents de la modélisation des phénomènes complexes aident à cerner l’importance des questions et les points d’interrogation durs en ouvrant des questionnements de difficulté analogue à ceux posés par le modèle quantique : comment expliquer le contrôle optimal de l’évolution et de ses sauts, comment expliquer la source des informations apprises par apprentissage et des capacités conceptuelles supérieures pendant des capacités fonctionnelles inférieures ? Il faudra bien que le métaphysicien propose des réponses à ces questions ; car la modélisation numérique, loin de tout scientisme, montre dès aujourd’hui que ces réponses échapperont définitivement à une saisie explicative par la science pure.

Page 190: Colloque Sur Science

4 - L’informatique pose la question du sens

par Jacques Arsac

1. La science informatique. Pour la plupart des gens, et même dans la communauté scientifique, l’informatique est une

technique au service de la science mathématique. On la classe dans les technologies nouvelles de l’information et de la communication. Apprendre l’informatique, c’est apprendre à utiliser un traitement de texte ou quelque logiciel spécialisé comme il en existe dans les banques, les pharmacies ou les garages automobiles. Cela vient peut-être de la façon dont cette science est née. On fabriqua des calculateurs électroniques, et l’analyse numérique élabora des algorithmes pour la résolution de problèmes venus des diverses sciences.

Comme beaucoup de mes collègues, j’ai d’abord enseigné des rudiments de programmation à des chercheurs, puis aux étudiants de l’Institut de Programmation que René De Possel venait de créer à Paris. On leur expliquait comment est fait un ordinateur, on leur faisait des cours élémentaires de calcul numérique. C’est ainsi que j’ai enseigné à l’école d’analyse numérique du CEA… Mais c’était une vue trop restrictive de l’utilisation des ordinateurs. Il a fallu sortir du calcul numérique, parler de fichiers, de systèmes d’exploitation, d’information non numérique. Mes collègues et moi, nous avons tous vécu la même expérience : ce que nous enseignions n’était ni des mathématiques, ni de la physique, mais nous n’étions pas sortis du domaine des sciences. Ainsi naquit la science informatique. J’en ai proposé une définition [2] en 1969. Je l’ai présentée à la communauté internationale dans un colloque à Amsterdam en 1970. Elle s’est lentement affinée par la discussion dans la communauté informatique internationale. De tous ces travaux résulte clairement que l’informatique est une science empruntant aux mathématiques ses fondements logiques et algorithmiques, et à la linguistique ce qui lui est nécessaire pour le traitement des langues naturelles.

Je voudrais montrer ici comment l’informatique se heurte au mur du sens. Cette question

revêt un double aspect. Si le mur du sens ne peut être franchi, alors le domaine de l’informatique n’est pas coextensif à celui du langage humain, et il est impossible de faire une intelligence artificielle. Si par contre ce mur peut être franchi ou contourné, il n’y a pas de limite linguistique aux possibilités de l’informatique, et une intelligence artificielle est probablement possible. Mais la notion de sens est elle-même assez vague, comme l’a dit C.S. Peirce. Pour tenter de la préciser un peu, il me faudra pénétrer dans des questions philosophiques difficiles pour un scientifique. J’essaierai de les limiter à ce qui est strictement nécessaire pour donner une vue acceptable des questions. Je dirai ma conviction profonde qu’elles sont indécidables, en sorte que chacun peut y apporter une réponse en accord avec ses convictions.

2. La machine de Turing En 1935, le mathématicien Alan Turing conçut un type de machine capable de calculer tout

ce qui est calculable. Il a raconté qu’elle lui a été inspirée par la façon dont un enfant fait une addition. Il place les nombres à additionner l’un sous l’autre. Il démarre à la colonne de droite, lit les chiffres de cette colonne, écrit dans cette colonne le chiffres des unités de leur somme, et passe à la colonne suivante à gauche, avec ou sans retenue. La notion de colonne est remplacée dans la machine par un ruban divisé en cases qui se déplace sous une tête de lecture et écriture : “ changer

Page 191: Colloque Sur Science

de colonne ” devient “ déplacer le ruban d’une case à droite ou à gauche ”. La machine peut lire le caractère situé sur le ruban sous sa tête de lecture, ou écrire dans cette case en détruisant ce qui s’y trouvait. L’enfant mémorise le fait qu’il y a ou qu’il n’y a pas une retenue. Ceci est simulé dans la machine par un registre contenant des repères identifiables, par exemple une suite de chiffres. La présence ou l’absence de retenue seront marquées par des repères différents, que la machine consultera après avoir déplacé le ruban.

La machine est ainsi composée d’une tête de lecture – écriture devant laquelle se déplace un

ruban divisé en cases. Elle possède un registre contenant des repères. La machine est commandée par un tableau à double entrée, les lignes étant distinguées par le repère contenu dans le registre, les colonnes par le caractère lu par la tête de lecture. Chaque case dit les actions à exécuter, prises dans une liste très brève : déplacer le ruban d’une case à droite ou à gauche, écrire un caractère sur le ruban, mettre un repère dans le registre, arrêter. La machine répète le cycle suivant : lire le caractère sous la tête de lecture ; exécuter les opérations données par la table en fonction du caractère lu et du repère dans le registre. Si “ arrêter ” figure dans ces opérations, le calcul est terminé. On utilise en général des entiers comme repères dans le registre. On convient par exemple qu’au démarrage la première case du ruban est sous la tête de lecture, et que le registre contient l’entier 0. Pour faire exécuter un calcul par la machine, il faut d’abord choisir un alphabet de caractères permettant de représenter les éléments du calcul. Par exemple, pour traiter des nombres entiers, on pourra utiliser la notation binaire, donc les caractères ‘0’ et ‘1’. Il faudra un séparateur entre ces nombres, par exemple le signe ‘|’. Il sera souvent commode d’avoir un signe de fin d’écriture sur le ruban, donnant ainsi un alphabet de quatre caractères. Pour définir le calcul à effectuer, il faut créer la table qui associe des actions à un numéro dans le registre et un caractère lu. C’est ce qu’on peut appeler “ programmer la machine ”. C’est une opération complexe parce que les actions élémentaires de la machine sont très rudimentaires : la moindre opération est décomposée en un très grand nombre d’actions élémentaires nécessitant beaucoup de numéros dans le registre pour distinguer les différentes étapes du calcul. Ainsi, pour faire une addition, il faudra avancer le ruban jusqu’au dernier caractère du premier nombre, c’est-à-dire avancer le ruban tant qu’on lit des 0 ou des 1, aboutissant au séparateur, puis revenir en arrière d’un cran. On lira alors le chiffre de droite du premier nombre, on écrira à sa place le séparateur, et on mettra des entiers différents dans le registre suivant que c’est 0 ou 1. Puis on avancera jusqu’au dernier chiffre du deuxième nombre. Sachant par le registre s’il y avait 0 ou 1, on pourra déterminer le chiffre de droite du résultat, utiliser des entiers différents dans le registre pour mémoriser la retenue, revenir en arrière à la fin du premier nombre, etc. C’est lourd, mais c’est faisable…

Deux points essentiels sont à retenir. Cette machine peut tout calculer (thèse de Church).

Elle manipule des caractères en ignorant totalement ce qu’ils représentent, et même s’ils représentent quelque chose. Les caractères sur le ruban, les repères dans le registre n’ont qu’une seule fonction : sélectionner une ligne ou une colonne parmi plusieurs. Ils agissent uniquement par différence.

3. L’ordinateur. Le schéma de nos ordinateurs a été conçu par le mathématicien John Von Neumann, élève

de Turing, comme une forme de cette machine, enrichie par l’ajout d’une mémoire adressable pouvant contenir des repères pour les opérations à effectuer, et les éléments du calcul. Le nombre d’opérations élémentaires est aussi considérablement accru. L’addition de deux entiers devient une opération élémentaire de la machine. Les ordinateurs sont maintenant suffisamment bien connus pour qu’il ne soit pas utile d’insister davantage. L’important est qu’ils ont les mêmes propriétés que

Page 192: Colloque Sur Science

les machines de Turing : ils peuvent tout calculer, ils manipulent des caractères en ignorant totalement ce qu’ils représentent, et même s’ils représentent quelque chose.

Il est aisé de s’en rendre compte en considérant la mémoire de la machine. Chaque case peut

contenir indifféremment des nombres entiers ou réels, des instructions pour l’unité de traitement, des suites de lettres, des codes variés… Mais si vous consultez le contenu d’une case, vous n’y trouvez qu’une suite de 0 et de 1, dont il est impossible de dire si c’est un entier, un réel, une instruction. Si le numéro de cette case vient dans le registre d’instruction de la machine, le contenu sera considéré comme une instruction, découpé en champs et servira à commander des circuits variés de l’unité de traitement. Si ce numéro vient dans une instruction d’addition, le contenu sera considéré comme un entier. Chaque case ne contient qu’une suite de 0 et de 1. Elle ne désigne rien, ne signifie rien. Elle sera utilisée de façons différentes suivant le circuit qui consulte le contenu de la case.

4. L’information. L’usage a toujours été, en informatique, d’appeler “ information ” le contenu d’une case de

mémoire. Or, dans le langage courant, “ information ” est synonyme de “ renseignement ”, c’est quelque chose qui a un sens, qui apporte une connaissance nouvelle. Il faut en revenir à la distinction entre la forme et le sens d’un texte. Près de Vitré, au château des rochers où séjourna la marquise de Sévigné, j’ai vu sur un cadran solaire les 4 lettres “ TIME ”, “ l’heure ” en anglais : quoi de surprenant sur un cadran solaire en Normandie ? Mais il y avait devant le mot “ ULTIMAM ”. Ce mélange de latin et d’anglais m’a intrigué pendant de longues secondes, jusqu’à ce que je réalise enfin que “ TIME ” est l’impératif du verbe “ timeo ”. “ ULTIMAM TIME ”, “ crains la dernière ” ! La donnée des lettres d’un mot ne suffit pas pour qu’on puisse savoir ce qu’il représente, le code de lecture n’est pas dans le mot. “ TIME ” est une forme, il faut une information extérieure au mot pour pouvoir lui associer un sens. Dans cette perspective, j’appelle “ information ” la forme d’un texte, “ renseignement ” le sens qui lui est associé. C’est cohérent avec l’étymologie : l’information est forme. L’informatique traite l’information , la forme. Elle ne connaît pas le sens.

5. L’utilisateur. On peut se demander comment une machine qui lit et écrit des caractères sans savoir ce

qu’ils représentent peut servir à quelque chose. Prenons un exemple aussi près que possible du niveau de l’ordinateur. Les articles d’un supermarché sont repérés par des codes barres : ce sont des suites de barres larges ou étroites, repérables parce qu’imprimées en deux couleurs, par exemple noir et blanc. Une barre blanche est ce qui est entre deux noires. La caissière présente un article devant un dispositif optique qui saisit les variations de couleur, les transforme en signaux électriques brefs ou longs qui forment deux caractères d’un alphabet binaire (là encore, il faut quelque chose pour marquer le début et la fin du code barre). L’ordinateur compare cette suite de caractères à toutes celles enregistrées dans un fichier dont il a été muni, et qui associe à chaque code deux suites de caractères repérées par des séparateurs. Quand l’ordinateur trouve dans le fichier un code identique à celui qui vient d’être saisi, il affiche à des endroits prédéterminés chacune des suites de caractères associées au code. Le client voit ainsi apparaître sur un écran le nom du produit et son prix.

Page 193: Colloque Sur Science

L’ordinateur ignore qu’il s’agit de codes-barres, il ne sait pas ce que représentent les suites de caractères associées à chaque code. Il lit et compare. Quand le résultat de la comparaison a une valeur particulière que l’utilisateur appelle ‘égale’, il prélève et affiche. Il n’y a rien d’autre. C’est le gérant du magasin qui a associé des codes barres à des articles, qui a mis dans le fichier le nom de l’article et son prix. Ainsi, le concept d’utilisation est central en informatique. L’ordinateur n’est utile lors de la vente dans un supermarché que parce que quelqu’un a associé des suites de caractères à des objets, et que le client peut lire et interpréter celles de ces suites qui lui sont destinées.

6. La méthode informatique.

On aboutit ainsi au schéma suivant d’utilisation d’un ordinateur.

Connaissances données Connaissances résultats ? ? Représentation Interprétation ? ? Informations données ? ? ? ? Informations résultats

Traitement formel

Pour faire résoudre un problème par un ordinateur, on commence par représenter les connaissances données sous la forme de suites de caractères, que j’appelle ‘informations données’. Un traitement de la forme de ces informations données produit en résultat de nouvelles informations. L’utilisateur, en les lisant, y trouve un sens, celui des connaissances résultats. Un traitement formel est une suite d’applications de règles de la grammaire dans laquelle sont écrites les informations données. Programmer une application, c’est choisir les règles de grammaire à appliquer et leur ordre d’application.

On a dit que ce schéma ne peut être le bon, car le plus ne peut sortir du moins. En passant

des connaissances données aux informations données, je n’ai conservé que la forme, le sens n’est pas pris en charge par l’ordinateur. Ce qui a été perdu à l’entrée est définitivement perdu, le résultat ne peut avoir un sens. La critique est fondée, mais elle n’invalide pas le schéma, imposé par le fait que l’ordinateur est une machine de Turing, et identifiable dans n’importe quelle application de l’informatique. Elle pose la redoutable question du lien entre forme et sens d’un texte. On donne à un ordinateur un texte sensé représenter les connaissances données que l'on possède. Par un traitement de la forme de ce texte, il fournit un autre texte. Comment peut-on être sûr que ce dernier représente bien les connaissances résultats que l'on cherche ? Dans quel cas un ordinateur peut- il être d'une quelconque utilité si l'on sépare le nom de la chose, si on ne considère que le nom ? La question s'est posée bien avant qu'on invente les ordinateurs. Selon Fortunat Strowski [15], “une des questions qui ont été les plus agitées dans les premières années du XVIIe siècle est celle de "l'imposition de nom". Les sceptiques la discutent à propos du problème de la certitude : ils s'efforcent de prouver que les noms ont été donnés artificiellement aux choses et qu'il n'existe aucun rapport essentiel entre les noms et les choses. D'où ils concluent que le raisonnement, puisqu'il ne combine que les noms, n'atteint pas la vraie nature des choses ”. C'est très exactement le problème de l'informatique, elle ne combine que des noms.

7. L’intelligence artificielle.

Page 194: Colloque Sur Science

C’est aussi la question de la possibilité d’une intelligence artificielle. L’intelligence est,

entre autres fonctions, la possibilité de pénétrer le sens : “ intus legere ”. Si l’ordinateur n’a pas accès au sens, il ne peut faire preuve d’intelligence. Or l’expérience montre qu’il peut traiter valablement certains textes. On retrouve un débat déjà tenu au XVII° siècle, quand Blaise Pascal eut fabriqué sa machine à additionner. Le philosophe anglais Thomas Hobbes était convaincu que tout raisonnement est un calcul : “ reasoning is nothing but reckoning ”. Si une machine peut faire des calculs, alors elle peut raisonner, il écrivit donc que “ le fer et le cuivre ont été investis des prérogatives de la pensée humaine ” : la machine est intelligente. Ceci troubla Blaise Pascal [12] qui écrivit dans une de ses pensées : “ La machine d'arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux; mais elle ne fait rien qui puisse faire dire qu'elle a de la volonté, comme les animaux ”. D’une certaine façon, Blaise Pascal esquive le problème, abandonne la bataille de l’intelligence et cherche dans la volonté la différence entre l’homme et la machine. De manière plus fine, Gilberte Perrier, sœur de Blaise Pascal, dit que, lors d'une addition, ce n'est pas la machine qui fait œuvre intelligente, c'est l'homme qui fait du travail de machine. Toutes les fois que nous traitons un texte exploitable par un ordinateur, nous faisons du travail de machine. Mais tous les textes sont- ils exploitables par ordinateurs ? Nous ne pouvons esquiver la question du sens : existe-t- il en tant qu’entité autonome, ou n’est-il qu’un dérivé de la forme ?

8. Nombres L’expérience montre qu’il y a des domaines où la méthode informatique n’entraîne aucune

perte liée au sens. Nous savons qu’un ordinateur est une excellente machine à calcul. Examinons donc comment se pose la question du sens pour les nombres. Un nombre n'est qu'un objet servant à mesurer, il ne signifie rien en soi. Si je vous dis "sept", je ne vous dis rien. Il faut ajouter "sept francs", "sept jours", "sept mètres" pour que vous sachiez ce dont il s'agit. Cette remarque se trouve déjà chez Guillaume d'Occam [10] : “dans le calcul les chiffres ne signifient rien par eux-mêmes mais, ajoutés à un autre symbole, le font signifier”. Thomas Hobbes, au XVII° siècle, avait prévu la méthode informatique, en proclamant : “ il faudrait calculer avec les noms pris indépendamment de leur signification comme on calcule avec les nombres ”. Il marquait bien ainsi que les nombres n’ont pas de signification. Wittgenstein [16] insiste là-dessus dans ses “investigations philosophiques ” : “ car quelle est la signification de cinq ? Il n'en est pas question ici, sinon de savoir comment on s'en sert ” Wittgenstein ne dit pas que "cinq" n'a pas de signification, mais seulement qu'elle n'intervient pas en arithmétique. Quelle pourrait-elle être ? Je n'en sais rien dans le cas de "cinq". Pour les Hébreux, "quarante" avait une signification, probablement celle d'une durée importante : le déluge a duré quarante jours et quarante nuits, les Hébreux ont passé quarante ans dans le désert, Moïse quarante jours sur le Sinaï, Elie quarante jours sur le mont Horeb, Jésus quarante jours au désert... Pour beaucoup de gens, treize a une signification : on achètera un billet de loterie un vendredi 13, on fera l'impossible pour ne pas se trouver treize à table. Cela n'a rigoureusement rien à voir avec l'arithmétique. Si 7 + 3 = 10, ce n'est pas parce que 7 est le nombre des dons de l'Esprit Saint, 3 le nombre de personnes de la Trinité, et 10 le nombre de commandements donnés à Moïse sur le Sinaï. Chez les Hébreux, et dans beaucoup d'anciennes civilisations, les nombres avaient une signification, souvent magique. Elle s'est perdue. Les nombres n'ont plus aujourd'hui de signification. Comme j’affirmai cela lors d’une conférence à Caen, une collègue me dit que tout ceci était absurde : à quoi serviraient les nombres s‘ils ne signifient rien ? La fonction des nombres n’est pas de signifier, mais de désigner. 5 désigne un élément de la suite des entiers, successeur de 4 et prédécesseur de 6. Comme je l’ai dit à propos de la machine de Turing, ils opèrent par “ différence ”, au sens que De Saussure [14] donne à cette expression : 5 n’est ni 4 ni 6. Les nombres interviennent dans des règles de calcul : 7+3=10. C’est

Page 195: Colloque Sur Science

précisément par là qu’ils sont utilisés efficacement en informatique. L’utilisateur choisit un nombre pour désigner une quantité, la machine traite les nombres suivant les règles de l’arithmétique, l’utilisateur trouve dans les nombres résultats la désignation des quantités cherchées.

9. Noms propres.

Certains mots agissent comme les nombres. De même que "sept" a pour fonction essentielle

de sélectionner un élément dans la suite des nombres entiers, de même le nom propre "Haute-Loire" sélectionne un parmi les départements français, au même titre que "43". Dans cette fonction, il ne signifie rien, pas plus que "43". Que la Haute Loire soit mon pays, que j'y sois attaché, que le mot évoque pour moi le haut plateau du Mezenc battu par la burle (le vent du nord violent et glacial qui balaie le plateau), un pays où des gens se déchirèrent pour leur religion parce qu'ils sont tous solidement attachés à leur foi : c'est une signification subjective. Elle est totalement ignorée de l'administration quand elle délivre une carte grise. Elle l'est tout autant de l'étranger qui vient pour la première fois en France et cherche sur une carte où se trouve le département "43". C'est ce qui permet à un ordinateur de manipuler sans aucun problème ces noms propres : les fichiers informatiques sont suffisamment efficaces pour que le gouvernement ait promulgué une loi pour en limiter les risques. Toutes les fois que les mots ont pour fonction de sélectionner ainsi un parmi plusieurs éléments prédéfinis, comme le mot "célibataire" dans une feuille de paie sélectionne un parmi les états maritaux reconnus par la loi, ils opèrent exactement comme toute information, qui sélectionne un parmi plusieurs états prédéfinis. Peu importe les nuances que l’on peut attacher au mot célibataire, l’appréciation que l’on peut se faire de cet état. Il suffit que le mot désigne un état et un seul d’une liste prédéfinie. Nous sommes dans le domaine de la désignation, pas dans celui de la signification. Suis-je la signification de mon nom ? Wittgenstein répond non, sinon “ comment pourrait-on dire que M. X est mort ? ”.

10. Référence et signification.

Ce qui différencie les noms communs des noms propres ou des nombres, c’est qu’ils n’ont pas pour seule fonction de désigner, de séparer, ils signifient. Prenons un exemple. Le nom ‘mort’ désigne le phénomène biologique de l’arrêt de certaines fonctions des êtres vivants : le cœur ne bat plus, la respiration cesse, etc. Mais il est riche de signification pour chacun. Pour quelques uns, il évoque ce “ tranquille départ ” dont parle Péguy dans “ Eve ”. Pour beaucoup il signifie la fin redoutée de l’existence, la séparation d’un être cher, la disparition dans le néant, l’entrée dans la vie éternelle. Tout ceci est d’une autre nature que le phénomène biologique désigné par le mot. A la suite de Gottlob Frege [5] on distingue maintenant deux fonctions du nom : il désigne, il signifie. On appelle ‘référent’ ce que le mot désigne, ‘signification’ ce qu’il évoque. Le mot ‘embryon humain’ désigne un amas de cellules en train de se développer dans le ventre d’une mère, sa signification a été proposée par le comité national d’éthique : “ personne humaine potentielle ”. Je parle pour communiquer mes idées, la signification est donc de l’ordre de l’idée : la signification du mot ‘mort’ est l’idée que je me fais de la mort.

11. Concept, idée, valeur. J’ai dit que le référent est l’objet que le mot désigne. Mais les noms abstraits ne désignent

pas un objet. Le mot “ âne ” peut désigner cet animal que je vous montre du doigt là dans le pré. Il peut aussi désigner une espèce particulière d’animaux, reconnaissables à leur taille, leurs longues

Page 196: Colloque Sur Science

oreilles, leur cri. Guillaume d’Occam [10] a insisté sur l’opération qui consiste à regrouper en une “ série ” les objets ou les êtres sur la base d’une certaine ressemblance, puis de donner un nom qui désigne à la fois cette série, et chacun des éléments qui la composent. Ce mécanisme est beaucoup plus familier qu’il n’y paraît. Comment enseigner ‘deux’ à un enfant ? Wittgenstein [16] le rappelle : “ La définition du nombre "deux" ainsi conçue : ceci s'appelle "deux" - pendant que l'on montre deux noix - est parfaitement exacte. Mais peut-on définir ainsi le "deux" ? Celui à qui l'on donne la définition ne sait pas, en effet, ce que l'on veut dénommer par "deux"; il supposera que vous nommez "deux" ce groupe de deux noix là. ” L’enfant a deux mains, il met deux souliers, il reçoit deux gâteaux. Sans formaliser l’opération, il met toutes les paires d’objets dans un même ensemble et il en extrait ce qu’elles ont en commun : ‘deux’. Les critères qui ont été sélectionnés pour déterminer la ressemblance et grouper des éléments dans un même ensemble peuvent être considérés comme caractérisant les objets de la série. Ils forment un “ concept abstrait ”. Paul, Marie, Claire sont tous bipèdes, mammifères, vertébrés, etc. Le concept d’homme comporte les éléments “ mammifère vertébré bipède ”. Le concept peut en général être défini avec une grande précision, il est universel, reconnu par tous de la même façon, à de rares exceptions près. En science, il est absolument universel : le concept de droite est le même pour tous.

Chacun peut associer une idée à l’objet ou au concept désigné par le nom. Le plus souvent,

elle est de l’ordre de la valeur. Le concept de chien est universel, encore que les critères de ressemblance ne soient guère évidents, tant il y a de variétés de chiens. En revanche, il n’est pas certain que l’on ait tous une idée de chien, et si on en a une, elle est de nature affective : cette brave bête, le meilleur compagnon de l’homme, ou cet animal dangereux qui vous mord sans prévenir…

12. Réalisme et nominalisme. Par là même, la question de l’universalité de la signification est ouverte : nous n’avons pas

tous les mêmes valeurs. Mais parce que la signification est l’idée que nous avons de la chose désignée, c’est l’existence même d’idées universelles qui est en cause. C’est un vieux débat qu’il est inutile de développer ici une nouvelle fois. Rappelons seulement que Platon croyait à l’existence d’idées universelles, sans distinguer d’ailleurs idée et concept : il parle aussi bien de l’idée de lit que de l’idée d’homme. Porphyre posa la question des genres et des espèces, se demandant s’ils existent hors de nous, ou si nous les construisons pour clarifier notre vision du monde. Abélard [1] prit nettement position, déclarant que “ le nom seul est universel ”, d’où le nom de “ nominalisme ” donné à sa thèse. Duns Scot au contraire croit à l’universalité des idées : l’idée d’homme existe hors de nous, c’est l’idée que Dieu a de l’homme quand il le crée. On appelle “ réalistes ” ceux qui, comme Duns Scot, croient à la réalité des idées universelles. Guillaume d’Occam nie absolument l’universalité des idées : il n’y a pas hors de moi une idée d’homme qui s’imposerait à moi, il n’y a que l’idée que je me fais dans mon esprit. Il explique qu’à la différence de l’artisan qui fait un lit, Dieu n’a pas besoin d’un modèle préexistant pour créer un homme, il crée chacun directement dans son individualité : il n’y a pas de nature humaine, il n’y a pas d’idée universelle de l’homme. Le débat n’a pas été tranché de façon définitive par les philosophes, il y a encore aujourd’hui des réalistes et des nominalistes. Mais le nominalisme est la pensée dominante. Luc Ferry [4] et André Comte-Sponville rejettent avec énergie toute extériorité, c’est-à-dire toute idée ou vérité hors de notre esprit, au nom même de l’autonomie de la raison : s’il existe une vérité hors de notre esprit, elle s’impose à nous, nous ne pouvons pas la refuser S’il y a une idée universelle d’homme, ce n’est plus nous qui décidons de ce qu’est l’homme, de ce qui est bon ou mauvais par rapport à lui, nous ne sommes plus libres. Le scientifique que je suis reste insensible à de telles considérations : nous croyons à l’extériorité de l’univers, que nous scrutons pour chercher à lever autant que faire se peut le voile qui le recouvre. Je serais tout aussi heureux si je parvenais à lever un petit peu le voile qui

Page 197: Colloque Sur Science

recouvre l’idée d’homme. Il faut noter que les nominalistes contemporains reconnaissent l’universel en science : “ il n’y a d’universel que scientifique ” ont écrit François Gros et Pierre Bourdieu dans leur rapport pour le ministre de l’Education nationale. La distinction entre concept et idée rend bien compte de cette particularité de la science : les concepts sont universels, seule l’existence d’idées universelles est en cause. La science travaille sur les concepts. La mécanique utilise le concept de vitesse, reconnu de la même façon par tous. Elle ne se préoccupe absolument de la façon dont certains y trouvent des satisfactions enivrantes.

13. Niveaux de langage. Un mot peut intervenir dans une phrase de différentes façons, soit pour lui-même : “ mort

est un mot de quatre lettres ” ; soit pour son référent : “ le médecin a constaté la mort de mon frère ” ; soit pour sa signification : “ je pleure la mort de mon frère ”. Il en résulte différents niveaux de langage.

Au niveau que je qualifie “ le plus bas ”, le mot ne joue que par sa forme. Ainsi, dans le

syllogisme : “ tout A est B ; or C est A ; donc C est B ”, A,B, C n’interviennent que par leur forme, ils ne désignent rien , ils ne signifient rien. C’est le niveau des langages formels, ceux traités par une machine de Turing. Au niveau suivant, les mots désignent leurs référents : “ l’homme est un mammifère parlant ”. Cette phrase établit une relation par laquelle l’animal désigné par le mot ‘homme’ appartient à l’intersection de l’ensemble des mammifères et de l’ensemble des animaux qui parlent. Ce que vous pouvez penser de la dignité de l’homme n’a rien à faire ici. J’appelle ce niveau “ référentiel ”. Une phrase à ce niveau établit une relation entre des référents, c’est sa signification, signification référentielle. C’est le niveau du langage scientifique : “ le chlorure de sodium est soluble dans l’eau ”. C’est celui qui est utilisé pour communiquer un renseignement : “ le prochain train passera dans 10 minutes ”, “ prenez un parapluie, il pleut ”, etc.

Le niveau suivant, que j’appelle “ symbolique ”, est celui où les mots interviennent pour leur

référence et leur signification : “ l’homme est un roseau pensant ”. Au niveau référentiel, cette phrase est absurde. Au niveau symbolique, elle est au contraire riche de sens. Certains réservent le mot “ signification ” aux phrases qui n’utilisent que la référence, et parlent de “ sens ” quand les idées sont en cause. Par précaution, j’opposerai “ signification référentielle ” à “ sens ”, pour qu’il n’y ait aucun risque de confusion. C’est par le langage symbolique que nous échangeons des idées. Au dessus du niveau du sens, il y a le langage poétique, dans lequel les référents tendent à s’effacer :

“ Mais proche la croisée au nord vacante Agonise selon peut-être le décor Des licornes ruant du feu contre une nixe…. ” (Mallarmé) “ Interpréter ” un langage formel, c’est attacher des référents à ses caractères. Si j’attache

“ homme ” à A, “ mortel ” à B, “ Socrate ” à C, le syllogisme formel ci-dessus devient “ Tout homme est mortel ; or Socrate est homme ; donc Socrate est mortel ”. C’est essentiel en informatique. L’ordinateur travaille au niveau formel, l’utilisateur travaille au niveau d’une interprétation du langage formel. Le problème posé par l’informatique prend alors un éclairage nouveau. On est amené à dire que le niveau référentiel du langage devrait être correctement traité en informatique, le problème demeurant pour le niveau signifiant.

14. Informatique et langage référentiel.

Page 198: Colloque Sur Science

J’ai insisté sur l’universalité de la référence. Il eut peut-être fallu la tempérer par un élément

temporel. De Saussure [14] a noté le caractère diachronique du langage : c’est un ensemble de signes qui opèrent par différence :’chat’ n’est pas ‘chien’. A une époque donnée, les mots ont une même référence, donnée avec précision par un dictionnaire (Umberto Eco [3] ajoute que la signification est donnée par une encyclopédie, c’est l’idée majoritaire d’une communauté). Mais le langage évolue lentement : le mot “ cabinet ” ne désigne plus le même endroit qu’au XVIIe siècle. Laissons ce phénomène de côté, et centrons-nous sur une période donnée. Les mêmes mots désignent les mêmes objets (choses ou concepts) pour tous. On est au niveau référentiel, interprétation d’un niveau formel. Un traitement de la forme devrait entraîner un traitement de la signification référentielle.

C’est compter sans les irrégularités des langues naturelles. J’en rappelle brièvement

quelques unes. Certaines phrases peuvent être analysées de plusieurs façons. Une analyse de “ Paul ferme la porte ” fait de ‘ferme’ le verbe, ‘la’ étant article, ‘porte’ nom. Mais une autre analyse fait de ‘ferme’ un adjectif épithète de ‘Paul’, ‘la’ étant pronom personnel, ‘porte’ verbe. Il faut un contexte pour choisir entre les deux analyses. On peut présenter la mise à la forme passive comme une opération formelle qui conserve la signification référentielle. N1 et N2 étant des noms, V un verbe actif, la phrase “ N1 V N2 ” a la même signification que “ N2 est V’ par N1 ”, où V’ est le participe passé de V : “ le chat mange la souris ” a même signification que “ la souris est mangée par le chat ”. Mais “ beaucoup de gens lisent peu de livres ” n’a pas la même signification que “ peu de livres sont lus par beaucoup de gens ”. J’ai dit que le mot ‘âne’ désigne indifféremment une espèce d’animaux, ou un individu de l’espèce. C’est un des exemples utilisés par Gotlob Frege [5] pour montrer les faiblesses du langage ordinaire : “Dans un système de signes parfait, un sens déterminé devrait correspondre à chaque expression. Mais les langues vulgaires sont loin de satisfaire à cette exigence et l'on doit s'estimer heureux si dans le même texte, le même mot a toujours le même sens ”.

Au XVIIe siècle, on a rendu ces irrégularités responsables de tous les problèmes

d’incompréhension entre les hommes. On a vu dans l’avant Babel un âge d’or du langage où ces problèmes n’existaient pas. Newton, puis Leibniz ont cru que l’on pourrait reconstruire un langage parfait, une “ caractéristique universelle ”. A la fin de sa vie, Leibniz reconnut que ce serait extrêmement difficile. Mais l’idée de langage parfait continue à tracasser les logiciens. Dans sa préface au “Tractatus logico-philosophicus” de Ludwig Wittgenstein, Bertrand Russell [13] écrit : “M. Wittgenstein s'intéresse aux conditions d'un langage logiquement parfait, non pas qu'il y ait un langage quelconque logiquement parfait, ou que nous nous croyions nous-mêmes capables, ici et maintenant, de construire un tel langage, mais parce que la fonction entière d'un langage est d'avoir une signification, et que celui-ci ne remplit cette fonction qu'au fur et à mesure qu'on s'approche du langage idéal, que nous postulons”. Ces irrégularités peuvent aussi être considérées comme ce qui fait la beauté d’une langue, de la même façon qu’une dentelle à la main surclasse de beaucoup une dentelle mécanique, par le chatoiement de ses irrégularités…

Elles sont la pierre d’achoppement de l’informatique. Un correcteur orthographique ne peut

corriger les fautes liées à la signification d’une phrase, même au niveau référentiel. Si je tape : “ la fille que j’ai vu peindre était mal habillée ”, me signalera-t-il une faute parce que la fille avait mis une tenue appropriée pour peindre sa cuisine, alors que ce que j’ai tapé dit qu’on faisait son portrait en mendiante ? On parle d’ordinateur pouvant taper un texte qu’on lui dicte. Si je lui dicte un extrait de l’oratorio “ Rédemption ” de César Franck : “ le mal s’enfuit impuissant ”, que va-t-il produire, ce que je viens de taper ou “ le mâle s’enfuit impuissant ” ?

Page 199: Colloque Sur Science

On peut soutenir que ces problèmes peuvent être résolus, au prix de systèmes d’une extrême complexité. Peut-être… Noam Chomsky a cru que l’on pourrait formaliser les langues naturelles. Cet espoir est aujourd’hui abandonné. Mais il est important de noter que le langage référentiel ne pose de problème que par son écart à un langage parfait. Ce n’est pas la signification référentielle qui est en jeu. C’est un domaine où l’on peut espérer progresser, traitant correctement une part de plus en plus grande du langage.

15. Informatique et sens. Le langage symbolique pose un problème différent à cause du débat entre réalisme et

nominalisme. S’il n’y a pas d’idées universelles, il n’y a que des idées personnelles, des opinions. Les uns pensent que “ potentiel ” est le contraire de “ réel ”, en sorte que l’avortement mettant fin à la vie d’une personne potentielle ne touche pas une personne réelle. D’autres pensent que “ potentiel ” veut dire “ en devenir ”. Pour eux, l’avortement est d’une autre nature. Le sens étant lié à l’idée, s’il n’y a pas d’idées universelles, il n’y a pas de sens universel, objectif : il n’y a que le sens que je perçois dans mon esprit, il n’y a pas de sens hors de mon esprit. Qu’importe alors que l’ordinateur ne perçoive pas de sens ? Même s’il en percevait un, ce serait “ son ” sens, pas “ le ” sens, c’est sans intérêt. Si au contraire il y a des idées universelles, alors il y a une objectivité du sens. L’informatique n’y ayant pas accès se trouve ainsi limitée dans ses possibilités. Le domaine de langage qu’elle peut espérer traiter est cette portion du langage référentiel qui ne comporte pas d’irrégularités grammaticales.

On pourrait être tenté de voir là une expérience cruciale permettant de trancher entre les

thèses réaliste et nominaliste. Mais la communication peut fonctionner sans idées universelles, comme le montre à l’évidence l’expérience courante dans notre société dominée par le nominalisme. Il suffit qu’il y ait des idées généralement admises dans une société pour que l’on puisse communiquer. Nous avons tous, en France, des idées très voisines de l’homme. Cela tient à la naturalité des idées, disait déjà Guillaume d’Occam : les hommes se ressemblent, ils ont des idées qui se ressemblent. Mais en outre nous avons été élevés dans une même culture, nous avons lu les mêmes auteurs, nous consultons les mêmes médias, nous participons aux mêmes débats de société. Des idées générales suffisent pour communiquer, il n’est pas nécessaire qu’elles soient universelles, c’est-à-dire valables pour tous les lieux et tous les temps. Par là, le sens retrouve une objectivité ponctuelle, dans une culture donnée. Comment la transmettre à un ordinateur ?

Et même si c’était possible, il arrivera nécessairement un moment où les idées générales ne

suffisent plus. J’en prends pour exemple une phrase d’André Comte-Sponville : “ la vérité n’a ni valeur ni signification ”. Elle m’a d’abord paru choquante. La difficulté vient du mot “ vérité ”. Avons-nous la même idée de la vérité ? Ayant entendu Comte-Sponville développer cette idée dans une conférence, j’ai compris que pour lui il n’y a de vérité que scientifique : “ est-ce que la vérité existe ? La terre ne tourne-t-elle pas autour du soleil ” déclara-t- il en effet. Il est vrai que cette vérité- là n’a ni valeur ni signification. Nous arrivons ainsi au point où faute d’idées universelles les risques d’incompréhension sont grands : je parle avec mes idées, vous comprenez avec les vôtres…

On pourrait être tenté de croire qu’on peut sortir de ces difficultés en définissant d’abord

soigneusement les mots qu’on utilise, suivant la recommandation de Blaise Pascal [11]. Mais il en dit lui-même l’impossibilité : on ne peut définir tous les mots. La définition d’un mot fait appel à d’autres mots, qu’il faudra à leur tour dé finir. Tôt ou tard, on créera une circularité. Ainsi le "petit Larousse" définit “idée : notion que l'esprit se forme de quelque chose”, et “ notion : connaissance, idée qu'on a d'une chose”. Donner la signification de “ signification ” serait une autoréférence,

Page 200: Colloque Sur Science

paradoxale. Il y a donc des mots primitifs non définis sur lesquels sont construits les autres mots. Ils sont appréhendés intuitivement par chacun. Pour Pascal [11] “la nature nous en a elle-même donné, sans paroles, une intelligence plus nette que celle que l'art nous acquiert par nos explications”. Comment la transmettre à un ordinateur ?

16. Forme, sens, calcul. Ainsi l’informatique voit ses possibilités d’action limitées par le fait qu’elle ne connaît que

la forme. Encore faudrait- il être sûr que le sens existe en tant qu’entité autonome, qu’il ne dérive pas de la forme par un calcul. Nous lisons un texte, nos neurones calculent sur ce texte en un temps très bref. Le résultat de ce calcul est ce que nous appelons “ sens du texte ”. Ce n’est pas une entité autonome, un plus ajouté à la forme, il est dérivé de la forme, contenu dans la forme. Dans un article important, Daniel Kaiser [7] tente une construction de la notion de sens utilisable en science, partant du fait que s'il existe, il y a un ensemble de mots et un ensemble de significations, et qu'il doit être possible d'établir une relation mathématique entre les deux. Il montre les difficultés de l'opération : “les vues développées dans cet article nous amènent à considérer que la quête de la signification d'un mot ou d'une phrase est en quelque sorte mythique. Ni sous la forme statique, ni sous la forme dynamique, nous n'avons trouvé possible de déclarer : voici le sens de ce mot ou de cette phrase [...] Au lieu de représenter la connaissance pour elle-même, il vaudrait mieux représenter ce que le sens, s'il existe, permet de faire : des inférences”. Dans un colloque tenu à Meudon en 1987 sur “Science et sens” [8], il insiste : “Il est évident qu'aucune revue scientifique sérieuse n'accepterait actuellement un article sur la combustion qui serait basé sur la notion de phlogistique : cette notion, fort en vogue au XVIIIe siècle, est considérée aujourd'hui comme mal définie et dénuée de valeur explicative. De même, je conjecture que, dans un avenir que je ne me risquerai pas à dater, les revues scientifiques rejetteront des analyses du phénomène de la compréhension basées sur la notion de sens, et ceci exactement pour les mêmes raisons : notion mal définie, de peu de valeur explicative, supplantée depuis par des notions reposant sur de meilleurs fondements théoriques”.

Si l’on admet le point de vue nominaliste, la signification référentielle étant entièrement

déterminée par la forme (aux irrégularités du langage près), le sens symbolique n’étant qu’une vue dans notre esprit, sans objectivité, le champ de l’informatique “ est coextensif au domaine de la pensée humaine ” (Herbert Simon ). Il n’y a pas de limite théorique à ce que peut l’informatique, une intelligence artificielle est possible. Herbert Simon écrit [9] : “ce fut une longue route depuis le Ménon de Platon jusqu'à aujourd'hui, mais il est peut-être encourageant que la plupart du travail sur cette route a été accompli depuis le tournant du XXe siècle, et pour une large part depuis son milieu. La pensée était encore totalement intangible et ineffable jusqu'à ce que la logique formelle moderne l' interprète comme une manipulation de caractères sans signification. La pensée semblait habiter le ciel des idées de Platon, ou des lieux tout aussi obscurs de l'esprit humain, jusqu'à ce que les ordinateurs nous apprennent que les symboles peuvent être manipulés par des ordinateurs”. Herbert Simon joue sur le double usage du mot "symbole", qui en mathématiques désigne un élément formel d'un calcul, mais dans l'usage courant désigne un objet matériel ou un fait historique renvoyant à une idée ou un fait d'un autre ordre. Ce que le symbole désigne peut être pris en charge par l’informatique, ce qu’il signifie lui échappe. La signification n’est pas dans la chose, elle lui est donnée de l’extérieur. Umberto Eco souligne qu'il n'y a pas de signe dans la nature, c'est l'homme qui charge certains objets de signification. Saint Augustin dans son "De Trinitate" déjà avait noté ce fait, à propos de la pierre que Jacob oignit et consacra au Seigneur, et du bois du sacrifice d'Isaac : “Isaac lui-même était la figure de Jésus Christ lorsqu'il portait le bois du sacrifice. Ici la pierre et le

Page 201: Colloque Sur Science

bois existaient antérieurement, et ils ne symbolisèrent Jésus-Christ que par une action extérieure et interprétative”. Cette signification là échappe aux ordinateurs.

17. La question posée par l’informatique. Résumons-nous. L’informatique ne traite que la forme des textes. La question posée est

donc celle du rapport entre la forme et le sens. Un mot sert à désigner : “ l’homme est un mammifère parlant ”. Le référent peut-être un objet concret : “ chaise ”, ou un concept abstrait : “ mort ”. Dans une culture donnée, les référents sont universels. Une phrase ne mettant en jeu que les référents des mots peut servir à donner un renseignement : “ le prochain train passera dans 10 minutes ”, “ le chlorure de sodium est soluble dans l’eau ”. Le traitement de telles phrases par l’informatique bute sur les irrégularités des langues naturelles. Au prix de systèmes éventuellement très complexes, on peut espérer en faire traiter une large part par l’informatique. Mais le langage sert aussi à communiquer des idées. Les mots interviennent alors par leur signification, qui est l’idée que l’on a de ce qu’ils désignent. Les nominalistes disent qu’il n’y a pas d’idées universelles, mais seulement ce que moi je pense de ce que les mots désignent. Peu importe alors que les ordinateurs ne pensent rien de ces désignations, c’est une question qui leur est propre. Tout le langage doit pouvoir être traité par ordinateur, aux restrictions précédentes près. Une intelligence artificielle est possible. Les réalistes disent qu’il y a des idées universelles : ce n’est pas moi qui décide ce qu’est l’homme, l’idée existe hors de moi, il m’appartient d’essayer de la découvrir. L’ordinateur n’ayant pas accès à ces idées se trouve en position d’infériorité, le langage symbolique lui échappe, une intelligence artificielle est impossible. On peut croire que l’expérience départagera les deux clans. Mais il faut rappeler qu’il ne suffira pas que quelques textes soient correctement traités, il faudra montrer que tous peuvent l’être. On imagine difficilement comment cela pourrait se faire. La question du sens posée par l’informatique est la même que celle de l’existence d’idées universelles, ou celle de l’existence de la vérité. Il y a plus de vingt-cinq siècles qu’on en débat, sa ns avoir pu la trancher. Je suis intimement convaincu qu’elle ne sera pas tranchée par l’informatique, elle me paraît indécidable par l’esprit humain.

BIBLIOGRAPHIE 1 Pierre ABELARD “Gloses sur l'interprétation”, extrait de la “Logica ingredientibus”, Edition Geyer, Paris, 1945 2 Jacques ARSAC “ La science informatique ”, Dunod, Paris, 1969 3 Umberto ECO “Sémiotique et philosophie du langage”, Enaudi editore, Torino, 1984 ; PUF, Paris, 1988 4 Luc FERRY “L'Homme-Dieu ou le sens de la vie”, Grasset, Paris, 1996 5 Gottlob FREGE “Sens et dénotation”, 1892, dans “Ecrits logiques et philosophiques”, Le Seuil, Paris, 1971. 6 Thomas HOBBES “De la nature humaine”, 1651, Traduction par le baron d'Holbach en 1772, repris par Vrin, Paris, 1971

Page 202: Colloque Sur Science

7 Daniel KAYSER “A computer scientists's view of meaning”, dans S.B.Torance (ed) “ The mind and the machine ”, Chichester, Ellis Horwood, 1984 8 Daniel KAYSER “Illusions et réalité de la notion de sens en intelligence artificielle”, dans “Science et sens”, Vrin, Paris, 1990 9 Allan NEWELL, Herbert SIMON “Computer science as empirical enquiry”, Tenth Turing Award lecture, Com. ACM 19, 1976, p. 113 - 126 10 Guillaume D'OCCAM “Somme de logique”, Traduit du latin par Joel Biard, Editions T E R, 1988 11 Blaise PASCAL “De l'esprit de géométrie ou de l'art de persuader”, édition de La Pléiade, Paris, 1954 12 Blaise PASCAL “Pensée 230”, édition de La Pléiade, Paris, 1954 13 Bertrand RUSSELL “Préface du Tractatus logico-philosophicus”, Traduction Française, Gallimard, Paris, 1961 14 Ferdinand De SAUSSURE “Cours de linguistique générale”, 1906 – 1911, Lausanne, Payot, Paris 15 Fortunat STROWSKI “ Pascal et son temps”, Plon, Paris, 1907 16 Ludwig WITTGENSTEIN “Investigations philosophiques” (1943), Traduction Française, Gallimard, Paris, 1961

Page 203: Colloque Sur Science

6 - La conscience est-elle un processus algorithmique ?

par Hervé Zwirn

Le problème de la conscience est sans doute l'un des plus difficiles sinon le plus difficile

auquel on puisse s'attaquer. J'en veux pour preuve non seulement la très abondante littérature qu'il a suscitée mais surtout la part de celle-ci consacrée non à sa résolution ou à l'exposé de propositions de solutions mais simplement à montrer que le problème est mal posé, à tenter de le formuler clairement, voire à essayer de montrer qu'il n'a pas de solution ou même que le problème n'existe pas.

Mon objectif dans cet exposé sera extrêmement modeste et limité. Je me contenterai

d'aborder la question selon un angle bien précis et donc forcément restreint en commençant par formuler de manière non ambiguë une des questions que l'on peut se poser au sujet de la conscience, à savoir "la conscience est elle un processus algorithmique ?", question qui peut se décliner en deux versions : une version faible, "peut-on simuler la conscience à l'aide d'un algorithme ?" et une version forte, "la conscience émerge-t-elle réellement lors du déroulement de certains processus algorithmiques?". Ces questions peuvent être exprimées d'une manière imagée sous la forme: "un ordinateur peut- il simuler la conscience ?" (version faible) ou "un ordinateur peut-il réellement être conscient ?" (version forte).

Je vais commencer par donner un certain nombre d'éléments pour que cette question ait un

sens précis. Je présenterai ensuite deux arguments qu'on a pu opposer à une réponse positive à cette question et les réponses éventuelles à ces objections. Je n'ai donc aucune prétention à couvrir une proportion notable du sujet et même dans le champ restreint de la question à laquelle je vais m'intéresser, je serai loin d'être exhaustif.

Précisons tout d'abord le sens du terme "processus algorithmique" car la simple phrase "un

ordinateur peut- il penser ?" a quelquefois tendance à induire en erreur ceux qui, ne connaissant pas la définition précise de ce qu'est un processus algorithmique, utilisent des arguments non recevables pour donner une réponse négative.

Calculabilité

On a une notion intuitive de ce qu'est une fonction calculable f(n) dont l'argument est entier.

C'est une fonction dont on saura toujours calculer la valeur à partir de la donnée de son argument. En général, on pensera qu'une fonction est calculable si on connaît (ou si on est susceptible de déterminer) la liste des opérations qu'il convient d'effectuer à partir de n pour trouver f(n). La difficulté de cette définition est que la liste des différentes opérations qui peuvent intervenir est a priori infinie. Est-ce qu'il est possible de la déterminer précisément et exhaustivement ? C'est une question à laquelle il a été répondu aux alentours de 1936 par Turing, Church, Post, Gödel et d'autres.

La thèse de Church-Turing (que je vais expliciter ci-dessous) fixe la classe des fonctions

calculables et détermine en conséquence la liste des opérations qui doivent permettre de calculer toute fonction de ce type. Ceci signifie d'une part, que toute fonction calculable l'est en utilisant uniquement ces opérations et d'autre part, que rajouter d'autres opérations (qui sont intuitivement

Page 204: Colloque Sur Science

faisables) ne permet pas de calculer des fonctions autres qu'on ne pourrait pas calculer à l'aide des premières.

La thèse de Church-Turing dit qu'une fonction de N dans N (ou ce qui revient au même d'un ensemble dénombrable dans un ensemble dénombrable) est calculable si et seulement si :

- Il existe une machine de Turing T qui la calcule, ou si (ce qui est équivalent), - C'est une fonction récursive partielle ou si ….. (il existe de nombreuses autres formulations

équivalentes). La force de cette thèse réside dans le fait qu'on a pu démontrer qu'un grand nombre de

définitions de la calculabilité, partant d'intuitions différentes, sont en fait équivalentes, ce qui semble prouver qu'elles capturent bien toutes le concept intuitif de calculabilité en le prenant par des bouts différents mais qui finalement reviennent au même. De plus, aucune fonction dont on pourrait penser qu'elle est intuitivement calculable mais qui ne soit pas calculable par une machine de Turing (ou qui ne soit pas récursive) n'a pu être produite. Cette thèse est donc maintenant communément acceptée par tous les mathématiciens et informaticiens.

Machine de Turing Il existe plusieurs manières équivalentes plus ou moins sophistiquées de décrire une

machine de Turing. Nous adopterons la définition simple suivante : une machine de Turing est un dispositif idéal composé d'un ruban infini découpé en cases, le long duquel se déplace une tête de lecture-écriture. Une case peut contenir le symbole 1 ou être vide. De plus, la machine peut se trouver dans un certain nombre fini d'états. Au départ, la machine se trouve dans l'état 1 et sa tête de lecture se trouve à gauche de la partie du ruban sur laquelle des 1 sont écrits. A gauche de la tête, le ruban est donc vierge. Les 1 présents représentent la donnée d'entrée de la machine. La machine exécute alors un programme qui est une suite d'instructions du type : lire le caractère inscrit sous la tête de lecture puis a) si le caractère est un blanc écrire un 1 (ou laisser un blanc) se déplacer ensuite vers la droite (ou vers la gauche) et passer dans l'état N° k ou s'arrêter, b) si le caractère est un 1 alors laisser un 1 (ou écrire un blanc) puis se déplacer vers la droite (ou vers la gauche) et passer dans l'état N° k' ou s'arrêter.

Turing a montré qu'avec un dispositif de ce type, pour toute fonction calculable, il est possible de trouver une machine programmée comme il convient, qui partant d'une donnée n présente au départ sur le ruban, s'arrête en ayant écrit f(n) sur le ruban. Chaque fonction calculable est donc associable à une machine de Turing particulière (celle dont le programme lui correspond) qui, quand on lui donne le nombre n en entrée, écrit le nombre f(n) sur le ruban et s'arrête.

Mais Turing a démontré de plus, qu'il existe une machine de Turing dite universelle, qui est capable de simuler le calcul de n'importe quelle autre machine de Turing. Je ne vais pas rentrer dans les détails de la manière dont on dit à cette machine universelle quelle autre machine elle doit simuler, ce qu'il faut retenir c'est qu'une machine de Turing universelle est capable de calculer n'importe quelle fonction calculable. Si on met de côté le fait que la mémoire de nos ordinateurs actuels est limitée (contrairement au ruban d'une machine de Turing qui doit être infini) un ordinateur n'est rien d'autre qu'une machine de Turing universelle. Il sait faire exactement la même chose, ni plus ni moins.

Le fait de dire que les fonctions calculables sont les fonctions qu'une machine de Turing

peut calculer signifie que l'on peut prendre comme opérations élémentaires servant à calculer toute fonction calculable, les opérations de base d'une machine de Turing (à savoir: changer d'état, déplacer une tête de lecture à droite ou à gauche d'une case sur un ruban, lire un caractère, écrire ou effacer un caractère, s'arrêter).

Page 205: Colloque Sur Science

Fonctions récursives La deuxième manière, équivalente je le rappelle, de présenter la thèse de Church-Turing fait

référence aux fonctions récursives. Une fonction récursive est définie à partir des fonctions de base que sont la fonction zéro, la fonction successeur et les fonctions projection, et de la construction de nouvelles fonctions par composition, récursion primitive1 (on obtient alors les primitives récursives totales c'est à dire partout définies) et minimisation2 (on obtient alors les récursives partielles). Le fait de dire que les fonctions calculables sont les fonctions récursives partielles signifie que l'on peut prendre comme opérations élémentaires servant à calculer toute fonction calculable, les opérations de base que nous venons de mentionner. Les deux définitions (par machine de Turing et par récursivité) sont équivalentes et elles sont aussi équivalentes à d'autres formulations comme le ?-calcul proposé par Church3.

Une fois qu'on a une définition précise de ce qu'est une fonction calculable, on peut donner

une définition précise de ce qu'est un algorithme. Algorithme Le programme, c'est-à-dire la liste des opérations, qu'exécute la machine de Turing qui

calcule une fonction (ou la liste des opérations de composition, récursion primitive et minimisation qu'il faut effectuer à partir des fonctions de base pour obtenir la fonction) est un algorithme. C'est la description de la succession des opérations élémentaires à effectuer pour passer de l'argument de la fonction à sa valeur. C'est donc d'une certaine manière la description d'un calcul. Un ordinateur qui fonctionne ne fait rien d'autre qu'exécuter un algorithme.

Système complexe et émergence Je voudrais maintenant donner quelques précisions sur la notion d'émergence. On a déjà eu

l'occasion d'évoquer dans ces conférences le concept de système complexe, composé d'un grand nombre de constituants en interaction non linéaire. Les systèmes complexes font souvent apparaître un comportement ou des propriétés qu'on qualifie d'émergents. Une propriété émergente est une caractéristique qui apparaît lorsqu'on observe le système au niveau global et qui n'est pas prévisible (ou au moins pas visible) au niveau local. La propriété pour l'eau à la température et à la pression ambiante d'être liquide est par exemple une propriété émergente qu'il serait extrêmement difficile de prédire directement à partir de la donnée de la structure de la molécule d'eau et des lois de la physique microscopique. Il n'est pas possible ici de rentrer plus dans le détail de ce qu'est l'émergence dans les systèmes complexes mais il nous suffit de savoir que la dynamique de tels systèmes engendre quelquefois une propriété globale de l'ensemble du système qui résulte des interactions de ses composants. Dire que la conscience est une propriété qui pourrait émerger lorsqu'un algorithme se déroule signifie que lors de l'exécution de l'algorithme par un dispositif 1 On appelle récursion primitive le processus consistant à construire la fonction h(x,y) par l'itération des formules suivantes : h(x,0)=f(x), h(x, s(y))=g(x,y,h(x, y)). 2 On appelle minimisation le procédé permettant de définir : h(x)= le plus petit y tel que f(x, y)=0 ou indéfini s'il n'y en a pas. 3 Le symbole ? est défini par la formule ? x.[f(x)] = f (par exemple ? x.[sin(x)] représente la fonction sinus).

Page 206: Colloque Sur Science

donné, le système constitué par ce dispositif en train d'exécuter l'algorithme pourrait ressentir une sensation identique à celle que nous éprouvons lorsque nous disons que nous sommes conscients. Il est évident qu'une telle hypothèse paraît choquante a priori et c'est justement le but de la discussion qui va suivre d'en examiner la plausibilité.

Nous sommes maintenant armés pour exposer la position des tenants de la thèse de

l'Intelligence artificielle forte et pour examiner les objections qui lui ont été opposées. Les différents niveaux de points de vue Je reprendrai les 4 niveaux que Penrose utilise dans son dernier livre à ce sujet4. A. Toute pensée se réduit à un calcul; en particulier, le sentiment de connaissance

immédiate consciente naît simplement de l'exécut ion de calculs appropriés. B. La connaissance immédiate est un produit de l'activité physique du cerveau; mais bien

que toute action physique puisse être simulée par un calcul, une telle simulation ne peut par elle-même susciter la connaissance immédiate.

C. La connaissance immédiate est suscitée par une action physique du cerveau, mais aucun calcul ne peut simuler cette action physique.

D. On ne peut expliquer la connaissance immédiate à l'aide du langage de la physique, de l'informatique, ni de quelque autre discipline scientifique que ce soit.

Le point de vue D nie résolument la possibilité de progresser dans la compréhension de la

conscience. Ses partisans ont un point de vue que Penrose qualifie de mystique. De toute façon, cette position clôt la discussion. Laissons là donc de coté.

Le point de vue A est celui qu'on appelle souvent la thèse de l'IA forte. Il est soutenu par exemple par des gens comme Dennett et Hofstadter5. Il consiste à considérer qu'à partir d'un certain niveau de complexité de l'algorithme considéré, la conscience (au sens réel du terme, c'est à dire celui de l'expérience privée ressentie) émerge spontanément lors de l'exécution de l'algorithme.

Le point de vue B, qualifié quelquefois de thèse de l'IA faible, prétend qu'on peut simuler par programme un comportement conscient de telle sorte que de l'extérieur, on ait l'impression que le programme est conscient, sans pour autant que celui-ci le soit réellement.

La différence entre le point de vue A et le point de vue B est matérialisée par l'acceptation ou non de ce qu'on appelle le "test de Turing". Pour savoir si un ordinateur peut penser Turing a proposé la démarche suivante : un homme interroge à l'aide d'un clavier, un autre homme et un ordinateur placés tous deux dans une autre pièce. Si après une série assez longue de questions, il lui est impossible de déterminer qui est l'homme et qui est l'ordinateur à partir des réponses qu'il a obtenu, alors dit Turing, il faudra attribuer à l'ordinateur la faculté de penser. Si on met de côté les objections immédiates qui viennent à l'esprit contre ce test ( par exemple le fait qu'il est facile de voir qui est l'ordinateur en posant une question portant sur un calcul difficile auquel l'homme ne saura pas répondre, objection qui s'élimine facilement), alors accepter le résultat du test de Turing revient à accepter le fait que si la simulation de la pensée est parfaite alors il y a réellement pensée. C'est ce point que les tenants de la thèse B refusent. Searle par exemple le rejette totalement. Il ne refuse pas le fait qu'il soit théoriquement possible de simuler parfaitement la pensée (ou la conscience, ou la connaissance) mais il prétend qu'une telle simulation ne fait pas naître dans l'ordinateur qui exécute le programme de simulation, une véritable sensation personnelle de pensée,

4 Penrose R. Les ombres de l'esprit, Intereditions, 1995. 5 Voir par exemple, Hofstadter D., Dennett D. Vues de l'esprit, Intereditions, 1987.

Page 207: Colloque Sur Science

de conscience ou de connaissance. Nous allons voir l'argument qu'il utilise pour défendre ce point de vue.

Le point de vue C est celui que défend Penrose. Il consiste à considérer que non seulement un ordinateur ne peut pas être réellement conscient mais qu'il lui est même impossible de simuler la conscience. Selon Penrose, la conscience fait en effet appel à des processus non algorithmiques. Je présenterai ensuite une des raisons principales qui lui font adopter cette position. Mais je vais commencer par donner un des arguments les plus célèbres, du à Searle, contre le fait qu'un ordinateur puisse réellement être conscient ou même simplement comprenne ce qu'il fait. Cet argument est connu sous le nom de "la chambre chinoise"6.

La chambre chinoise de Searle Pour bien comprendre cet argument, il faut préciser la question à laquelle il répond. Le point

souvent considéré comme le plus difficile peut s'énoncer comme suit : Il est évident que les organismes conscients ont des facultés de réactions aux stimuli, de classification, de catégorisation, de réaction et de contrôle de leur comportement. Considérons un organisme qui manifeste un tel comportement qu'on supposera être indiscernable de celui d'un homme. Nous aurons dans ce cas, tendance à prêter une conscience à cet organisme. C'est le fameux test de Turing que nous avons présenté plus haut. Cependant, pourquoi tout ce traitement d'informations ne pourrait il pas se dérouler en l'absence de toute sensation, de toute conscience ? Dit autrement, même si on arrive un jour à décrire par le menu toute la neuro-physiologie et la physico-chimie en œuvre dans le cerveau et qu'on soit ainsi capable de décrire pourquoi et comment un homme réagit de telle et telle manière à tel ou tel stimulus, on n'aura pas expliqué pourquoi et comment l'ensemble des processus neuro-physiologiques ou physico-chimique en question aboutit à faire expérimenter à cet homme une sensation intérieure de conscience. Comprendre la totalité du comportement en terme de physico-chimie et de réaction à des stimuli ne nous fera pas avancer d'un pas en direction de la compréhension de l'apparition de la sensation privée que nous éprouvons en tant qu'être conscient. Comme le dit Thomas Nagel7, "il paraît impossible de donner un critère permettant de savoir si un organisme est conscient car on pourrait très bien imaginer qu'il se comporte exactement de la même manière (en tant qu'ordinateur ou en tant que zombie) sans pour autant éprouver la même sensation subjective". En d'autres termes nous ne saurons toujours pas pourquoi cela nous fait cet effet que d'être conscient. Nagel poursuit en remarquant que "si les processus mentaux sont de faits des processus physiques, alors cela produit un certain effet, intrinsèquement d'avoir certains processus physiques. Qu'une telle chose ait lieu demeure un mystère".

C'est pour aller dans ce sens que Searle a proposé son argument de la chambre chinoise. Imaginez, propose-t-il, que vous soyez enfermé dans une pièce où se trouve un panier plein

de symboles chinois. Imaginez vous ne compreniez pas un mot de chinois mais que vous disposiez d'un livre en français disant comment manipuler ces symboles de manière purement syntaxique et que ce livre donne aussi les règles à suivre pour assembler certains de ces symboles lorsque d'autres symboles vous sont présentés. Il vous suffirait alors de suivre les règles données par le livre pour être capable de produire en sortie une suite de symboles constituant une réponse à toute suite présentée en entrée en tant que question. Si les règles sont suffisamment précises et efficaces, il sera impossible à quelqu'un d'extérieur de distinguer une réponse produite de cette manière automatique d'une réponse donnée par un vrai Chinois. Et pourtant, cette manipulation automatique de symboles à laquelle vous vous livrerez ne vous donnera en aucun cas une compréhension du chinois. Vous

6 Searle J., Minds, Brains and Programs, The Behavioral and Brain Sciences, Vol 3, Cambridge University Press, 1980. 7 Nagel T., "What is it like to be a bat?", in Nagel T., Mortal Questions, Cambridge University Press, 1979.

Page 208: Colloque Sur Science

aurez donc simulé la manière dont un Chinois répondrait à ces questions mais vous ne comprendrez pas le chinois pour autant. Searle en tire la conclusion que la simulation en question ne produit pas une compréhension véritable et que, par extension, la simulation de la conscience ne produirait de la même manière aucune conscience réelle.

La réponse donnée entre autres par des gens comme Dennett ou Hofstadter à cet argument

est la suivante : Searle fait une erreur de niveau quand il veut nous prouver qu'il est possible de faire simuler le comportement de quelqu'un qui comprend le Chinois par quelqu'un qui ne le parle pas et ne le comprend toujours pas en se contentant d'exécuter l'algorithme. Tout d'abord, il sous estime totalement la complexité du problème en supposant qu'un opérateur serait capable d'exécuter ces instructions. Etant donné le nombre d'instructions nécessaires et leur complexité, un homme seul ne saurait en aucun cas exécuter le programme en un temps compatible avec sa durée de vie, il faudrait sans doute pour cela toute une armée de personnes travaillant en parallèle. Dans ce cas, ce serait le système global (c'est à dire l'ensemble de ceux qui exécutent les instructions) qui comprendrait et non pas les opérateurs en tant qu'individus. La compréhension est le fait de l'ensemble du système. La même erreur serait faite par quelqu'un qui prétendrait qu'un homme ne comprend pas ce qu'il dit parce qu'aucun de ses neurones ne comprend le Français. Lorsque Searle tente de réfuter l'objection de ses adversaires selon laquelle la compréhension n'est pas le fait des individus qui exécutent l'algorithme mais de l'ensemble de ces individus, il répond que cet ensemble est réduit à lui-même s'il apprend lui-même et lui seul la totalité de l'algorithme et des règles nécessaires pour l'exécuter. Mais comme nous venons de le dire cette hypothèse est totalement irréaliste. L'argument de Searle selon les tenants de l'IA forte n'est donc pas vraiment convaincant même s'il est séduisant à cause d'une sorte d'illusion, celle qui consiste à gommer les différences de niveaux et à sous-estimer la complexité nécessaire. Ceci étant, même si on n'est pas convaincu par l'argument de Searle, dire qu'à partir d'un certain niveau de complexité, le système en tant que tout voit émerger une réelle compréhension de ce qu'il fait reste extrêmement mystérieux et aucune explication du comment cette compréhension émerge n'est donnée par les tenants de cette position.

La question de savoir comment et pourquoi un processus donné fait apparaître une conscience est semble-t-il la plus difficile qui soit. Si on admet que rien d'autre n'existe que la matière (et l'énergie) alors la conscience doit trouver une explication en termes de processus ne faisant intervenir que la matière et l'énergie, donc en termes de physique. La question est alors de savoir si ces processus qui engendrent la conscience, peuvent être purement algorithmiques. En d'autres termes, la question sera de savoir si, étant supposé que la conscience est un phénomène qui émerge spontanément lors du déroulement de certains processus physiques, il est possible que ces processus soient purement algo rithmiques. Si la réponse est oui et Searle admet accepter cette réponse, il semble qu'un ordinateur programmé avec un tel algorithme pourrait expérimenter une sensation interne de conscience. Il semble même que n'importe quel substrat exécutant un tel algorithme pourra expérimenter une conscience. C'est là où la position de Searle semble la plus faible puisque curieusement, il considère bien que le cerveau est une sorte d'ordinateur mais il refuse pourtant de croire qu'un ordinateur puisse être conscient. Poussé à expliquer pourquoi, il adopte une position qui paraît très peu solide selon laquelle, le cerveau engendre la conscience en raison de ses qualités biologiques. C'est donc le substrat biologique qui serait responsable selon lui de l'apparition de la conscience. Une telle position n'est pas très satisfaisante et n'explique en fin de compte pas grand chose.

Si en revanche, comme le suppose Penrose, la réponse est non, alors un ordinateur ne peut ni expérimenter ni même simuler la conscience.

Je me contenterai donc à ce stade de dire que la thèse de l'IA forte n'est pas réfutée mais

qu'elle n'est pas prouvée non plus.

Page 209: Colloque Sur Science

La position de Penrose Je vais maintenant passer à l'argument utilisé par Penrose pour défendre le point de vue

selon lequel la conscience nécessite des processus non algorithmiques. Un mot avant sur la philosophie générale de Penrose dans ce domaine. Penrose est intimement convaincu que la physique actuelle est incomplète (ce en quoi il a raison comme le montre le fait qu'on a toujours pas réussi à unifier les quatre interactions fondamentales) mais il pense que cette unification se fera à travers une physique nouvelle faisant apparaître des processus non calculables à l'opposé de quasiment tous les processus que la physique actuelle traite. Je ne vais pas rentrer dans le détail des raisons que donne Penrose et je me contenterai de dire qu'il lie ce problème avec celui de la mesure en mécanique quantique. Nous avons eu l'occasion d'évoquer ici ce fameux problème et de voir comment les théories de la décohérence sont une tentative de solution. Penrose ne s'en satisfait pas et voit dans la gravité quantique non calculable (une théorie qui n'existe pas à l'heure actuelle) une solution possible de ce problème. Sa position est très contestée par les physiciens et personnellement je ne suis pas du tout séduit par le fait de faire intervenir la gravité quantique pour résoudre le problème de la mesure. Ceci étant, la critique majeure qu'on peut lui faire à ce sujet est de faire intervenir une théorie à venir et pour le moins mystérieuse dont lui-même n'a aujourd'hui aucune idée précise, comme solution d'un problème qui est déjà en soi assez préoccupant! De plus, sa position est encore plus fragilisée par le fait qu'un des arguments majeurs sur lequel il s'appuie pour montrer qu'il existe des processus non algorithmiques à l'œuvre en physique est lui-même fortement contestable. Cet argument, qui a été initialement donné sous une forme légèrement différente par Lucas, s'appuie sur le théorème de Gödel. Je vais maintenant être obligé de rentrer dans une partie nécessairement plus technique mais il est difficile d'en faire l'économie si on veut réellement comprendre la position de Penrose. Je vais cependant essayer de présenter les choses de la manière la plus simple possible. Nous aurons l'occasion d'en discuter ensuite et je remercie Jean-Paul Delahaye pour les discussions que nous avons eues à ce sujet.

Le théorème de Gödel Le théorème de Gödel stipule que dans tout système formel consistant (c'est à dire non

contradictoire), il existe une proposition vraie qui n'est ni démontrable ni réfutable en utilisant les démonstrations autorisées à l'intérieur du système lui-même. La proposition de Gödel est constructible mécaniquement à l'intérieur du système. On peut donc l'énoncer sous la forme : "si le système S est consistant, alors il est possible de construire à l'intérieur du système une formule G qui bien que vraie, ne sera ni démontrable ni réfutable". La deuxième partie du théorème dit que la consistance du système n'est pas démontrable à l'intérieur du système.

L'argument de Lucas, repris par Penrose, est alors le suivant: Supposons que nous soyons

décrit par un algorithme ou ce qui est équivalent que nous soyons décrit par un système formel. Dans ce cas, nous possédons une proposition de Gödel que nous pouvons construire mais que notre algorithme personnel ne peut pas démontrer. Comme par définition, tous nos raisonnements sont formalisables à l'intérieur de notre système formel donc sont comme une démonstration à l'intérieur du système, nous ne devrions pas être capables de raisonner pour voir que notre proposition de Gödel est vraie. Cependant, par construction de cette proposition nous le savons. Nous savons donc quelque chose en tant qu'homme que notre algorithme personnel ne peut pas nous fournir. Il en résulte que nous ne nous réduisons pas à un système formel quel qu'il soit.

Page 210: Colloque Sur Science

En fait ce raisonnement est erroné dans la mesure où il oublie un point fondamental du théorème de Gödel : le fait que pour conclure à la vérité de la proposition de Gödel d'un système S, il est nécessaire de supposer que ce système est consistant. La manière correcte de l'exprimer est : "si le système S est consistant alors la proposition de Gödel de ce système est vraie bien qu'elle ne soit pas démontrable à l'intérieur du système". Il en résulte que pour conclure à la vérité de la proposition de Gödel, il faut accepter la consistance du système. Or, la deuxième partie du théorème de Gödel dit justement que la consistance ne peut être démontrée à l'intérieur du système, ce qui signifie que nous n'avons aucun moyen d'être sûr de la consistance du système formel qui nous représente (si nous sommes représentés par un système formel) et que par conséquent nous n'avons aucun moyen de conclure à la vérité de la proposition de Gödel de ce système, pas plus que le système lui-même. La supériorité que Penrose veut mettre en avant pour montrer que nous sommes capables de "sortir" de tout système formel sensé nous représenter, s'effondre et avec elle, la preuve qu'il avance.

On peut présenter les choses de manière imagée à travers le dialogue suivant: Pierre veut

prouver à Paul qu'il est plus (qu'il va au delà) tout système formel que Paul prétendra que Pierre est. Selon Lucas et Penrose, pour tout système formel S que Paul prétendra représenter Pierre, Pierre exhibera la proposition de Gödel G du système S et dira: "voilà la proposition de Gödel du système que tu prétends que je suis. Ce système ne peut en aucun cas prouver la vérité de cette proposition, or moi, en tant que Pierre, je sais qu'elle est vraie donc je sais quelque chose que le système que tu prétends que je suis ne sait pas. Donc je ne suis pas correctement représenté par ce système formel".

Le problème de cette argumentation est qu'elle passe sous silence le fait que pour savoir que la proposition de Gödel en question est vraie, Pierre suppose implicitement que le système S est consistant. Or, Pierre n'a aucun moyen de savoir si cela est vrai puisque si S le représente, comme la deuxième partie du théorème dit justement que la consistance de S n'est pas démontrable dans S, Pierre ne peut savoir que S est consistant. Il n'est donc pas justifié à dire que contrairement au système S, lui sait que la proposition de Gödel de S est vraie.

Le raisonnement correct qu'il pourrait faire est le suivant: "Si je suppose que S est consistant

alors je saurai que la proposition de Gödel de S est vraie". Mais dans ce cas, Pierre n'a plus aucune supériorité sur S puisque on peut prouver que la formule "Cons(S)⇒G" 8 est parfaitement démontrable dans S, ce qui signifie que le système sait aussi démontrer que s'il est consistant, sa proposition de Gödel est vraie. L'argument de Lucas et Penrose tombe.

Pour rendre totalement justice à Penrose, il faut mentionner qu'il tente de justifier le fait

qu'un mathématicien est capable de reconnaître la consistance d'un système formel par des moyens qui sont d'une certaine manière liés à son intuition. Mais cet argument repose sur beaucoup d'ambiguïté et sur une conception réaliste platonicienne des mathématiques qu'on n'est pas forcé d'accepter. Nous ne pouvons rentrer ici dans l'analyse des critiques qui peuvent lui être faites mais elles ont été formulées par de nombreux logiciens qui ne trouvent pas satisfaisant le raisonnement de Penrose 9 . A ce stade, nous sommes conduits à penser que l'argument de Penrose n'est pas concluant.

Conclusion Alors, que peut on conclure de tout ça ?

8 Cette formule signifie que la consistance du système S implique la proposition G. 9 Voir par exemple la critique très claire de Feferman S., Penrose's Gödelian Argument, Psyche, 1995.

Page 211: Colloque Sur Science

L'argument de Searle contre le fait qu'un ordinateur puisse réellement comprendre ce qu'il fait ou puisse être conscient n'est pas convaincant et on peut considérer qu'il a été réfuté par ses adversaires. Il en résulte qu'il n'est pas prouvé qu'à partir d'un certain niveau de complexité, un ordinateur qui exécute un algorithme simulant un comportement humain (j'utilise ce terme flou pour englober à la fois un comportement total d'être humain auquel cas on se pose le problème de la conscience mais aussi un comportement partiel comme celui de comprendre une langue et dans ce cas on se pose le problème restreint de la compréhension etc.) ne ressente pas réellement une compréhension de ce qu'il fait ou ne soit pas conscient. D'un autre coté, rien ne prouve non plus que tel est bien le cas.

Par ailleurs, l'argument de Lucas et Penrose contre le fait qu'il soit possible de simuler un comportement humain par algorithme n'est pas concluant non plus. Il en résulte que rien n'interdit de penser qu'il est possible de simuler un tel comportement par un ordinateur. Mais rien ne prouve non plus que tel est bien le cas.

La conclusion prudente mais il faut bien l'avouer frustrante à ce stade est donc que aucune

des thèses A, B et C n'est ni démontrée, ni réfutée.

Page 212: Colloque Sur Science

7 - Cerveau et conscience : bilan et perspectives

par J.F. Lambert

“ On ne ramènera jamais les manifestations de notre âme aux propriétés brutes des

appareils nerveux pas plus qu’on ne comprendra de suaves mélodies par les seules propriétés du bois ou des cordes du violon nécessaires pour les exprimer ” (Claude Bernard)

La première, et certainement la principale difficulté que rencontre tout explorateur de

la conscience est d’ordre linguistique. Que recouvrent chacun des multiples usages du terme “ conscience ”? Et qu’en est- il du “ psychisme ”, de “ l’esprit ” ou de “ l’âme ”? Une autre difficulté majeure tient à la nature même du problème à résoudre qui suppose d’être déjà résolu pour être posé. En effet, si l'on voulait éclairer les pouvoirs de la conscience de manière non circulaire, on ne devrait ni les invoquer, ni les supposer, dans l'explication des processus par lesquels ils se manifestent. Ce qu’il convient d’expliquer devrait rester un but et n’être pas utilisé comme ressource explicative, ce qui, dans le cas de la conscience, est effectivement impossible. Comme le souligne A. Damasio, “ Qu’y a-t-il de plus étourdissant que de s’apercevoir que c’est le fait même d’avoir une conscience qui rend possibles et même inévitables nos questions sur la conscience ? ”

1 – LA CONSCIENCE DANS TOUS SES ETATS 1.1. PSYCHISME, AME, ESPRIT Le psychisme peut-être considéré comme inhérent à tout être vivant. Au sens large,

ce terme désigne le fait, pour tout organisme [vivant] d’être le siège de processus (pour l’essentiel, inconscients) dont la finalité est la conservation de son identité (de sa structure). L’âme [1 ] (végétative, sensitive, intellective) apparaît, quant à elle, comme détentrice et/ou génératrice de l’information (de ce qui donne la forme) à condition de ne pas réduire cette dernière (l’information) au formalisme de la théorie qui la quantifie. Cette in-formation n’est pas non plus équivalente au contenu du programme génétique mais plutôt à la dynamique de son expression dont on sait précisément qu’elle ne dépend pas seulement de son contenu mais aussi de son contexte. Bien que non réductible à la matière-énergie qu’elle “ anime ”, l’âme n’a pas ici de connotation spirituelle : il s’agit d’une propriété “ naturelle ” des organismes vivants. Quant à la notion d’esprit [2], elle est, en [1] Pour l’hylémorphisme développé par les scolastiques à partir de la philosophie d’Aristote, les êtres corporels que nous sommes sont composés de matière “ première ”, principe quantitatif d’individuation et puissance de déterminations (précédant la matière “ seconde ”, la matière physique concrète) et de forme, principe qualitatif spécifiant les opérativités de l’être corporel concret. Matière “ première ” et forme sont des composantes complémentaires n’ayant de réalité que conjointe. [2] Selon Husserl le rôle dévolu à l’esprit doit être distingué du pôle psychique qui est celui de l’âme. Matière et âme font partie de la nature tandis que l’esprit forme “ un monde ”. Dans ce contexte, la chair est l’unité primordiale du corps et de l’âme, unité psycho-physique, unité charnelle, non pas union du corps et de l’âme. La chair désigne ici non le corps physique mais le corps vécu et c’est par cette chair que la réalité psychique se constitue. C’est bien d’unité qu’il s’agit et non pas d’unification d’entités substantielles préalablement séparées. La “ chair ” désigne précisément cette unité préalable à toute distinction. C’est pourquoi l’âme est liée, non pas au corps (réalité physique matérielle), mais à la

Page 213: Colloque Sur Science

français, beaucoup plus ambiguë. Le même mot désigne, on le sait, à la fois le mental, la cognition (parfois réduite à la computation), c’est-à-dire le mind, et le principe même de l’être connaissant, le pneuma ou spirit. Pour compliquer les choses, l’esprit dans sa première acception (mind) peut désigner soit l’opérateur (le système de traitement), soit les opérations (la mise en œuvre de règles d’inférence), soit les contenus de ces opérations (les connaissances). Pour la philosophie classique, comme pour le sens commun, un “ esprit ” (spirit), c’est ce qui a de la volonté, des projets, une mémoire, une conscience [3]. Inversement, pour un matérialiste conséquent la matière se définit comme ce qui n'a pas “ d'esprit ”, c'est-à-dire qui ne possède ni volonté, ni projets, ni mémoire, ni conscience.

1.2. PEUT-ON DEFINIR LA CONSCIENCE ? Selon le psychiatre André Bourguignon, le problème de la conscience est mal posé, et cela

pour deux raisons principales. D'abord et avant tout, parce que la conscience que nous avons de nos perceptions, pensées ou sentiments nous les fait éprouver comme indépendants de notre corps et notamment de notre cerveau, contrairement à ce que nous éprouvons lors du fonctionnement d'autres organes comme les muscles striés dont nous sentons la contraction, ou tout autre organe comme le cœur ou le tube digestif. Nous n’avons aucune connaissance directe de ce qui se passe dans notre propre cerveau lorsque nous pensons (voir § 3.5). Ce que la conscience a de désarmant, constate également G. Edelman, “ c'est qu'elle ne semble pas relever du comportement. Elle est, tout simplement, toujours là ”.

Pour le philosophe J. Searle, au contraire, la définition de la conscience “ n'est pas un problème sérieux ”. La conscience, selon lui, “ fait référence à ces états de sensibilité et de connaissance immédiate qui commencent généralement lorsque nous nous éveillons [ ] et qui se poursuivent jusqu'à ce que [ ] nous devenions, d'une manière ou d'une autre, inconscients ”. La conscience ainsi définie est un état qualitatif interne, à la première personne. Toutefois, la conscience comme telle n'implique pas nécessairement la conscience immédiate de soi. En revanche, tous les phénomènes conscients sont des expériences subjectives qualitatives, et sont en conséquence des qualia. Searle insiste sur le fait qu’il n'y a pas deux types de phénomènes, la conscience et les qualia. Il n'y a que la conscience, qui est une série d'états qualitatifs.

Dans la perspective cognitiviste (voir § 3.1) les processus de traitement sont non seulement “ cognitivement impénétrables ” mais nécessairement non accessibles au soi conscient. Nous n’avons pas accès au traitement des symboles mais seulement au résultat. Il n’existe pas de connexion nécessaire entre l’esprit (computationnel) et la conscience. On peut même dire que l’essentiel des processus cognitifs échappe à la conscience (voir note 8).

En fait, il n’existe pas de sens premier de la conscience mais plutôt un “ réseau de métaphores ”. On peut y voir un principe causal [explicatif] du même type que la gravité. La conscience est toujours déjà là, comme “ ce qui va sans dire ”. Faut- il alors comme Wittgenstein le suggère, négliger “ ce qui va sans dire ”. Une telle négligence, selon l’auteur du Tractatus, a seule

chair (au corps vécu) porteuse de l’unité phénoménologique première. Cette chair joue le rôle d’un agent unique de constitution du corps et de l’âme en unité psycho-physique. Le corps n’est “ plein ” d’âme qu’en tant qu’il est chair, unité vécue. Pour Husserl, le spirituel n’est pas dégagé du psychique mais en quelque sorte rabattu sur lui : âme et esprit sont incarnés (dans la “ chair ”) et non ajoutés au corps. [3] La tradition biblique et l'eschatologie chrétienne expriment fortement la complémentarité d'une diversité de point de vue sur l'unique réalité qu'est la personne irréductible à l'interaction de deux principes séparés. La personne unifiée et unifiante s'exprime de manière différente à travers ses divers attributs que l'on désigne par des concepts comme la chair, le coeur, l'âme ou l'esprit.

Page 214: Colloque Sur Science

“ le pouvoir de faire ressortir en négatif ce qu’est la conscience, en suggérant que toute tentative pour la désigner pointerait vers quelque chose qu’elle n’est pas ”.

1.3. TROIS “ DIMENSIONS ” DE LA CONSCIENCE Comme le souligne J. Searle, la conscience désigne, d'abord le fait d'être éveillé ou endormi,

attentif ou distrait, c'est-à-dire plus ou moins vigilant. Or, il n'est pas rare que dans un même ouvrage la vigilance soit définie comme le fait d'être conscient. La réactivité du sujet aux stimulations extérieures est ici l’un des critères majeurs de l’état conscient. L’étude objective de la conscience en tant que niveau de vigilance a été grandement facilitée par l’évolution des techniques d’exploration fonctionnelle (électroencéphalographie et imagerie cérébrale [4]).

La conscience désigne également ce dont un sujet a connaissance : pensées, sentiments, perceptions, rêves, raisonnements. Elle est, dans ce cas, synonyme de présence à soi et au monde. Elle exprime l'intuition immédiate qu'a le sujet de ses propres actes. Il s'agit (en principe) d'une intuition claire et rationnelle qui se manifeste notamment dans la saisie immédiate de l'objet [5]. Cette conception de la conscience procède d'une théorie de la connaissance qui suppose donné ce qu'elle prétend expliquer. Une telle approche n'est pas suffisante car elle ignore la temporalité et nie le processus même d'élaboration de la conscience réfléchie. D'autre part la conscience d'objet est inséparable de la conscience de soi [6]. Enfin l'irruption de l'inconscient (cérébral avant d’être psychanalytique) [ 7 ] dans le champ de la rationalité consciente a mis un terme à l'idéal de

[4] A titre d’exemple, on peut citer les récents travaux sur l’état de repos conscient. Cet état correspond à une activité mentale effectuée sans entrée perceptive et ni sortie motrice et qui n’est pas dirigée vers un but. On a attribué à cet état mental le nom de “ random episodic silent thinking ” (REST) que l’on peut traduire par “ pensée silencieuse épisodique aléatoire ” (PSEA, pronocer psi). Pour certains, cet état cérébral peut être vu comme un état mental “ brownien ”, pour d’autres, il s’agit au contraire d’un état structuré. Les techniques d’imagerie fonctionnelles et la procédure de méta-analyse permettent aujourd’hui une approche “ objective ” de cet état de repos conscient. Il s’agit de comparer un grand nombre de tâches de références à l’état de repos conscient considéré comme tâche d’intérêt. Plus les tâches de références sont variées et nombreuses, plus faible est la probabilité qu’elles partagent un processus commun susceptible d’engendrer systématiquement une désactivation lorsqu’elles sont comparées à l’état de repos. Les résultats montrent que l’état de repos conscient met en jeu un réseau d’aires localisées principalement dans l’hémisphère gauche. Ce réseau se superpose en grande partie à celui qui est désactivé durant l’état végétatif persistant et pendant le sommeil paradoxal, ce qui renforce l’interprétation selon laquelle il s’agit bien d’un réseau correspondant à des processus actifs sous-tendant la pensée consciente. Voir également Lambert, 1987. [5] On peut distinguer ici une conscience perceptive et une conscience réflexive. La conscience perceptive est associée à une expérience qui lui donne un contenu à un moment donné (une couleur, une forme, une émotion, etc.). Elle présente ainsi un caractère subjectif auquel est associé le concept de qualia. Quant à la conscience réflexive elle correspond à la conscience de soi, à la faculté que nous avons d’attribuer des pensées à autrui et à les interpréter, à la connaisance que nous avons de notre propre histoire. [6] Selon W. James “ La conscience humaine est un flux continu d’expériences mentales qui n’entretiennent pas de relations nécessaires avec les événements extérieurs ”. Le syndrome de perte d’auto-activation psychique, décrit par D. Laplane (2001), montre que la conscience n’est pas d’abord la conscience de quelque chose mais une présence à soi-même. Des sujets souffrant de lésions des circuits passant par les noyaux gris de la base présentent une totale inertie lorsqu’ils sont abandonnés à eux-mêmes mais redeviennent normaux, ou quasi-normaux, dès qu’ils sont activés par une interaction avec leur entourage. Les patients atteints d’un tel déficit d’auto-activation affirment que dans les périodes de solitude ou d’abandon à eux-mêmes ils présentent un état de conscience “ vide ”, très analogue à ce que décrivent les méditants orientaux. Ce syndrome montre bien que la computation est indépendante de la conscience qui n’ajoute rien au traitement de l’information. De ce fait, comme le souligne D. Laplane, elle n’ajoute rien à la capacité de survie de l’individu ou de l’espèce et le stéréotype Darwinien est inefficace pour l’interpréter. L’existence d’un tel syndrome confirme également que la question de la conscience est irréductible à celle des modalités de traitement des contenus. La conscience ne s’identifie pas à la connaissance (voir note 8). [7] Voir Gauchet, 1992.

Page 215: Colloque Sur Science

“ transparence ” du sujet. Il y a comme une altérité interne en chacun, quelque chose qui pense sans moi. L'inconscient apparaît alors comme “ le chaînon manquant entre l'âme et le corps ” (P.L. Assoun).

Le terme conscience renvoie enfin au sens ultime de l'action lorsqu'il s'agit de la conscience morale. Le point de vue moral considère la conscience comme rapport à l'autre. La normativité est une dimension nécessaire de cette conscience morale telle qu'elle s'exprime dans le jugement éthique. Il s’agit d’une réalité axiologique qui dépasse largement le cadre des sciences de la nature.

1.4. CONSCIENCE ET DUREE Une hypothèse générale a été proposée par le neurologue américain B. Libet selon

laquelle la plupart des expériences conscientes requièrent une période minimale substantielle d'activation corticale pouvant atteindre 500ms pour une stimulation juxta-liminaire [8]. D'autres travaux semblent indiquer que l'élaboration du sens des mots requiert une durée du même ordre de grandeur (400-600ms). Des périodes d'activation corticales plus courtes peuvent cependant produire des opérations mentales inconscientes [9]. Un déterminant cérébral majeur de la différence entre événements mentaux inconscients et événements conscients pourrait bien être la durée des activités neuronales appropriées. Ceci justifierait que la plupart des opérations puissent être réalisées inconsciemment et rendrait compte du fait que le contenu de l'expérience subjective puisse être inconsciemment modifié pendant le délai substantiel nécessaire à son élaboration corticale (voir Lambert, 2000).

[8] Les travaux de Libet montrent qu'il existe un délai important (plusieurs centaines de millisecondes) entre le moment où une stimulation sensorielle parvient au cortex et le moment où l'activité neuronale est suffisante pour que le sujet fasse l'expérience consciente de cette stimulation. Cependant, d'autres résultats indiquent que la perception du stimulus périphérique est subjectivement référée au moment où le message sensoriel arrive au cortex (ce dont témoigne le potentiel évoqué primaire), soit seulement 15 à 25 msec. après la stimu lation. Libet parle d'antédatage pour caractériser ce processus de projection rétrograde de la conscience perceptive. Subjectivement la sensation cutanée apparaît donc sans aucun délai significatif en dépit du fait que l'activité neuronale requise pour provoquer cette sensation ne sera atteinte que plusieurs centaines de millisecondes plus tard. Un tel décalage subjectif (référage) dans la dimension temporelle est analogue à celui constaté dans le domaine spatial. Ces deux modes de référage servent à projeter l'image subjective sur les caractéristiques spatiales et temporelles des stimulus réels, bien que la représentation neuronale distorde à la fois le pattern spatial et le décours temporel du processus. [9] Des images dont on n'a pas conscience sont néanmoins perçues par l'organisme. Un stimulus en deçà du seuil

perceptif (dont l’intensité ou la durée sont inférieures au seuil absolu) bien que déclaré non perçu par le sujet, peut être pris en compte au niveau infraconscient et influencer de manière déterminante les perceptions et conduites consécutives. On parle de perception sous-liminaire (infraliminaires ou subliminales) ou encore de subception. Ainsi, un mot ou une image présentés de manière subliminale peuvent faciliter ou perturber la perception d’un autre mot ou d’une autre image présentés consécutivement après un bref délai : on parle d’amorçage figural, lexical ou sémantique. Le sujet “ voit sans percevoir ”. Le premier stimulus furtif, n’en est pas moins traité cognitivement et affectivement comme en témoigne le déclenchement de réponses électrodermales (RED) par certains stimulus à forte valeur émotionnelle dont le sujet (conscient) déclare pourtant ne rien savoir. En outre, malgré une telle absence de discrimination consciente, les potentiels évoqués corticaux (précoces et tardifs) corrèlent fidèlement les stimulus infraliminaires ce qui signifie que ces stimulus sont effectivement traités à haut niveau par le système (sub) cognitif. De nombreux résultats confirment l’effectivité d’une telle conscience implicite (masquage rétrograde, écoute dichotique, “ vision aveugle ”, etc.).

Page 216: Colloque Sur Science

1.5. DETECTION ET CONSCIENCE L’étude objective de la conscience dans sa seconde acception (conscience-présence, § 1.3)

reste problématique puisqu’elle implique de prendre en compte le témoignage des sujets et donc de recourir à l’introspection. L’expression du vécu conscient suppose la médiation du langage et/ou celle d’indicateurs comportementaux (comme la posture, les mimiques faciales ou la gestuelle) ou physiologiques corrélant notamment l’activité émotionnelle (comme les variations de conductance de la peau ou celles du rythme cardiaque). Mais de tels indicateurs ne sauraient donner accès à l’expérience subjectivement vécue. Comme le fait remarquer B. Libet : “ La conscience ou l'expérience subjective ne sont effectivement accessibles qu'introspectivement par le sujet éprouvant l'expérience en question [ ] Même une connaissance complète de la représentation neuronale ne saurait, sans être validée par le témoignage du sujet, nous dire quelle sensation est en train d'être subjectivement vécue ”.

Une expérience du même B. Libet montre clairement qu’il ne faut pas confondre détection et conscience (la détection adéquate n’est donc pas un critère de la conscience). Cette expérience est menée sur des patients présentant des douleurs rebelles à tout traitement pharmacologique, munis d’électrodes intracrâniennes implantées, pour des raisons thérapeutiques, dans le noyau ventrobasal du thalamus. Des trains de stimulation de durée inférieure ou supérieure au seuil de perception consciente défini lors des expériences précédentes, sont délivrés unilatéralement par l’intermédiaire de ces électrodes intra-thalamiques. Après chaque stimulation on demande au patient, dans le cadre d’un protocole de choix forcé, d’indiquer de quel côté il a été stimulé, indépendamment du fait qu’il ait ou non effectivement ressenti quelque chose (même quand il dit n’avoir été conscient de rien). Les résultats montrent que le taux de détection correcte est très supérieur à 50% même avec des durées de stimulation trop brèves pour produire une expérience consciente. Ceci confirme l’existence de processus cognitifs inconscients ou préconscients conditionnant l’élaboration de la détection consciente [10].

1.6. D’IMPOSSIBLES CRITERES A quoi peut-on reconnaître qu’une entité possède un esprit conscient ? Quel est le critère de

démarcation de la pensée ou plus exactement quelle sont les conditions de possibilité d’un énoncé tel que : “ cette entité pense et/ou est consciente ” ? Comme le souligne J. Bouveresse “ la pensée ne s’exprime adéquatement dans aucun exemple d’activité pensante [ ] elle est une sorte de point de vue sous lequel nous acceptons ou refusons de considérer cette activité ”. Nous n’accédons à l’intériorité d’autrui que par une inférence que nous effectuons à partir de son comportement. La décision concernant l’existence ou non d’une pensée ou d’une conscience est principalement de nature éthique.

L’identité opérationnelle entre systèmes est-elle suffisante pour affirmer leur identité “ ontologique ” ? Suffit- il qu’une entité “ se comporte comme ” un humain pour lui attribuer des qualités propres à ce dernier ? Sommes-nous seulement ce que nous faisons ? Selon Hofstadter et

[10] L’existence d’une forme de détection implicite est également suggérée par le fait que de nombreux patients sont capables, dans certaines conditions (notamment sous hypnose) de rapporter des propos tenus pendant une intervention chirurgicale sous anesthésie générale ou de rapporter certains incidents peropératoires. On peut également s’interroger sur la véritable nature de “ l’inconscience ” du coma. Il a été montré, en effet, que la présentation de visages familiers à des patients inconscients, qui se trouvent dans un état végétatif persistant, active le cortex à la jonction occipito-temporale correspondant à “ la zône du visage ” (observation rapportée par A. Damasio). Divers témoignages semblent bien aller dans le sens d’une certaine permanence du psychisme inconscient comme le pensait Freud (voir Hoppenheim-Gluckman).

Page 217: Colloque Sur Science

Dennett, il ne s’agit pas de savoir, par exemple, si une machine souffre, mais si elle se comporte “ comme si ” elle souffrait. Et d’ajouter que nous procédons de même entre nous. A. Turing soutient également que la question n’est pas de savoir si une machine pense ou est intelligente mais si son comportement est indiscernable de celui d’un humain dans les mêmes conditions. Le réalisme de l’imitation et la pertinence du comportement sont ici des critères suffisants. “ Si un robot astucieusement conçu pouvait (avoir l’air de) nous raconter sa vie intérieure (émettre les sons appropriés dans les contextes appropriés) devrions-nous l’admettre dans notre caste ? ” (D. Hofstadter). Carnap considère comme légitime de conclure à la possession de sentiments, de pensées, de souvenirs, de perceptions par une entité, à partir d’un comportement extérieur déterminé. Cette inférence est tout aussi légitime, pense-t- il, que celle qui permet de conclure à la valeur de l’intensité d’un courant électrique dans un fil à partir de grandeurs mesurées comme l’élévation de la température du fil ou la déviation d’une aiguille aimantée placée à son voisinage. Il n’est plus question “ de compréhension, de perceptions ou de pensées mais de faire celui qui a compris, qui voit ou qui pense ”.

Au demeurant, même si un homme et un automate satisfont aux mêmes épreuves ce n’est pas ce que l’on voit mais ce que l’on sait de leur comportement qui nous fait en décider. Aucun comportement ne peut être la preuve de la conscience et inversement, l’absence de comportement n’implique pas nécessairement l’absence de toute forme de “ conscience ”.[11].

2 - CERVEAU ET CONSCIENCE : RAPPEL DES POSITIONS

CLASSIQUES 2.1. LES MONISMES Parmi les formes de monisme matérialiste la thèse de l'identité forte préconisée par Feigl et

Amstrong affirme bien l'existence d'un principe interne de la conduite (le mental), mais ce principe n'est rien d'autre que le cerveau. Il y a identité psychoneurale. Pour ce matérialisme physicaliste le mental est réductible au biologique qui est lui même réductible à la physique [ 12].

Selon la thèse de l'identité faible, défendue notamment par les fonctionnalistes, à chaque état mental correspond bien un certain état neurophysiologique mais à chaque catégorie d'état mental ne correspond pas nécessairement une catégorie d'états neurophysiologiques particuliers. L'identité est [ 11 ] Le coma est un état “ d'inconscience ” durable, parfois définitif. La définition du coma reste purement comportementale. L'évaluation neurologique du patient comateux se fonde sur un examen clinique (le Score de Glasgow), sur les données de l'électroencéphalographie (EEG et potentiels évoqués) et sur celles de l'imagerie structurale et fonctionnelle qui permettent notamment d'évaluer la réactivité du cortex cérébral. Pour Plum et Pozner auxquels on doit la première description du “ locked in syndrome ”, les limites de la conscience sont difficiles à définir de façon satisfaisante car elle “ ne peut être appréciée chez autrui qu'à travers l'apparence de l'activité ”. L'équivalence entre malade inconscient et sujet absent est d'ailleurs discutable. Un jugement de la 20ème chambre correctionnelle en date du 30 mars 1989 reconnaît que “ Rien n'établit que la victime [dans le coma] n'a pas conscience de sa misère ” (voir Oppenheim-Gluckman). [12] Beaucoup pensent désormais, comme J.P. Changeux, que “ l'identité entre états mentaux et états physiologiques ou physico-chimiques du cerveau s'impose en toute légitimité ” et que “ l'homme n'a dès lors plus rien à faire de l'esprit ”puisque “ il lui suffit d'être un homme neuronal ”. Ainsi, pour J.D. Vincent il n'y a pas de différence entre “ ce qui serait de l'ordre de la pensée et de celui du cerveau ”. Quant à Francis Crick, il estime que nous ne sommes “ rien d'autre qu'un paquet de neurone ” et que toutes nos activités mentales, nos affects, nos désirs, que “ tout cela est un truc de neurones ”. Selon D. Hofstadter “ l'esprit humain est un objet physique ” ou encore pour Minsky “ la pensée est ce que font les cerveaux ” et “ La conscience s'identifie au domaine unifié de toutes les lois de la nature ”.

Page 218: Colloque Sur Science

occasionnelle, elle n'est pas catégorielle. Cette théorie autorise une certaine autonomie de l'explication psychologique à l'intérieur d'une ontologie strictement moniste (monisme non physicaliste).

Il en va de même des théories de “ l’émergence ” qui revendiquent un physicalisme non réductionniste. Pour l'émergentisme les entités mentales transcendent le physiologique, tout en émanant de lui. Le mental émerge de la complexification progressive des systèmes matériels auxquels il est cependant irréductible [13].

Dans cette classe de modèle, on peut inscrire également le paradigme de l'autopoièse (ou de la clôture opérationnelle) développé par F. Varela et H . Maturana. Ce paradigme, inspiré de la phénoménologie et des traditions orientales, cherche à sortir les sciences cognitives des impasses de la computation. Il s'agit principalement, pour Varela, de comprendre comment se constitue un système autonome et comment il est couplé à son environnement. Un tel système est caractérisé par sa forte détermination interne. Les comportements propres, qui correspondent à des points fixes de sa dynamique, peuvent être couplés à des évènements (des sollicitations de l'environnement) mais à la différence des modèles habituels ces évènements ne constituent pas des inputs. Il n'existe pas de correspondance bi-univoque entre des évènements externes et une quelconque représentation interne de ces évènements. Le stimulus est ici l'agent d'une perturbation ou d'une modulation de la dynamique des comportements propres (comme le suggère l'exemple célèbre de l'embouteillage dans la métaphore du trafic automobile). Alors que l'input détermine l'état de la structure de façon univoque et prévisible (représentation par correspondance), la perturbation déclenche dans le système des adaptations dont la direction et le résultat dépendent de l'état actuel du système lui-même. Il en résulte qu'un observateur peut difficilement prédire les conséquences d'une perturbation, d'autant que les évènements qu'il considère, lui, comme identiques, ne sont pas forcément perçus comme tels par le système et peuvent donc avoir - sur ce dernier - des effets forts différents. Dans ce contexte, à l'opposé de la logique de la représentation chère au cognitivisme standard (voir § 3.1) “ le système nerveux est défini essentiellement par ses divers modes de cohérence interne, lesquels découlent de son interconnectivité ”. Ainsi, “ la cognition n'est plus considérée comme une résolution de problèmes s'appuyant sur des représentations; la cognition dans son sens le plus vaste consiste plutôt en l'enaction ou le faire émerger d'un monde par le biais d'une histoire viable de couplage structurel ”. Nous sommes ici en présence d'un processus d'émergence de formes fondé sur la notion de co-détermination. L'unité fonctionnelle émerge d'un environnement qui se constitue (pour elle) en même temps qu'elle en émerge.

Le monisme neutre qui postule que le mental et le physique sont deux manifestations d'une unique substance [14] neutre (ni physique, ni mentale) a été particulièrement défendu par Russell et Carnap. Cette ontologie fait grand cas du principe de complémentarité en physique quantique et rejoint certaines intuitions des philosophies orientales. La physique quantique est en effet une source d'inspiration féconde pour ceux qui, comme R. Penrose cherchent une “ explication physique appropriée ” au phénomène de la conscience. Selon Penrose, la conscience résulterait de l'interaction, au niveau du cytosquelette des neurones, entre les activités de nature microscopique et macroscopique. L'esprit en tant que processus physique serait le point de rencontre des niveaux de description classique et quantique. Le niveau neuronal de description pourrait n'être que l'ombre d'un niveau plus profond où il convient de chercher le substrat physique de l'esprit. La description [13] Le prix Nobel Roger Sperry considère le cerveau comme un prodigieux générateur d'émergence de phénomènes qui, à leur tour, exercent un contrôle sur les activités de niveau inférieur. Dès qu'ils sont engendrés par les évènements neuronaux, les programmes mentaux acquièrent leurs propres qualités subjectives, opèrent et interagissent selon leurs propres lois irréductibles à celles de la neurophysiologie. Les entités mentales sont molaires, configurationnelles et transcendent le physiologique tout en émanant de lui. La conscience est globale, opérationnelle et fonctionnelle alors que les processus physiologiques n'ont pas une telle unité. De même, l'expérience subjective n'est pas corrélée à la mise en route des éléments excitateurs et inhibiteurs formant l'infrastructure des processus cérébraux mais à des propriétés holistiques dites mentales. [14] Voir note 22

Page 219: Colloque Sur Science

de ce niveau plus profond suppose une refonte de la physique actuelle et le recours au concept de non-calculabilité. Si donc la conscience est irréductible au calcul mais pas à la physique, la physique de l'esprit ne peut qu'échapper au calcul. L'explication physicaliste de Penrose suppose l'existence d'un insu non calculable qui précisément est irréductible à la physique. Comme le souligne M. Bitbol “ chez Penrose [ ] ce sont les autolimitations de la physique, plus encore que ses inachèvements, qui ouvrent des perspectives insoupçonnées au physicalisme ”.

2.2. DE LA CIRCULARITE DES ENONCES A propos de toutes ces tentatives de réduction de l'esprit “ au domaine unifié de toutes les

lois de la nature ” (Minsky, voir note 11) il est important de souligner que toute hypothèse prétendant que lois ordinaires de la physique suffiraient à rendre compte adéquatement de la réalité du sujet, débouche sur une évidente circularité puisque les lois en question supposent un sujet - ou pour le moins un agent cognitif - pour être pensées. L'énoncé de la loi présuppose l'existence de ce qu'elle est censée expliquer. Comme le souligne le physicien F. Dyson “ les lois de la physique sous-atomique ne peuvent être formulées sans référence à l'observation [ ] Ces lois réservent une place au rôle de “ l'esprit ” dans la description que l'homme fait de chaque molécule ”. Il n'existe pas, en effet, de lois dans la nature mais des lois de la nature qui supposent un agent cognitif pour être énoncées. L'assimilation de la pensée, de la conscience, du sujet, aux lois de la nature - ou plus précisément à ce que nous en savons - est donc fatalement tautologique. C’est avec notre cerveau que nous créons des catégories dans un monde qui n’en possède pas sauf celles déjà créees par l’homme. Il n’y a rien qui émerge s’il n’y a personne pour le signifier ou alors tout est émergence, ce qui ne signifie plus rien.

Quoiqu'il en soit, comme Georges Canguilhem (cité par Debru) le faisait observer à J.P. Changeux, lors d'un débat devant la Société Française de Philosophie en 1981, “ on peut, on doit tout accorder au physiologiste en tant qu'auteur et véhicule d'un savoir relatif au cerveau comme objet d'investigation expérimentale. Mais on peut et on doit lui demander de renoncer à prétendre se promener dans la rue de son cerveau pour comprendre comment il se fait qu'il se trouve à la fenêtre ”.

2.3. L’ALTERNATIVE DUALISTE Face aux difficultés - voire à l'impossibilité - de rendre compte adéquatement de la réalité

phénoménologique de la conscience subjective avec les modèles monistes, le dualisme offrirait- il de nouveau une alternative crédible ?

Le parallélisme cherche à rendre compte des corrélations psycho-physiologiques en postulant que le mental et le cérébral se correspondent mutuellement sans agir aucunement l'un sur l'autre. On évite ainsi le délicat problème de l'interface mais se pose alors la question de savoir comment garantir la correspondance entre états cérébraux et états mentaux. Leibniz répond avec la thèse de l'harmonie pré-établie. Dans sa version vulgarisée naïve, le parallélisme correspond assez bien à la croyance spontanée du psychophysiologiste mais il ne permet pas d'aller très loin dans l'exploration des corrélations entre fonctions psychiques et activité cérébrale. Considéré par Bergson comme une “ illusion philosophique ”, le parallélisme ne pourrait constituer, selon Marc Jeannerod (cité par Debru), qu'une “ philosophie d'attente ” qui ne résout rien. Ainsi, selon Claude Debru “ Toute tentative de donner au parallélisme un contenu psychophysiologique précis se heurte [ ] au double obstacle formé par l'imprécision des catégories psychiques et par la difficulté de donner une interprétation fonctionnelle autre que global des états ou événements neurophysiologiques correspondants ”. Au demeurant, un tel “ parallélisme global ” semble bien

Page 220: Colloque Sur Science

établi. On peut d'ailleurs envisager les rapports entre l'organe psychique et l'organe cérébral en termes topologiques en soutenant qu'ils ne sont pas absolument superposables. Cette proposition n'a de sens qu'à condition de concevoir ces organes comme des espaces de fonctions et non comme des structures. Il s'agit d'hyperespaces difficilement représentables. Ainsi les corrélations psychophysiques ne reposeraient plus sur la synchronisation de deux horloges comme l'envisageait Leibniz. Toutefois, pour G. Canguilhem (cité par Debru) “ Il faut abandonner l'idée qu'il y aurait dans le cerveau, quelque part, une sorte de surface topologique où se rejoindraient, par torsion et continuité, un endroit objectif et un envers subjectif ”. Canguilhem récuse l'idée de représentation topologique de la corrélation psychophysique.

L'interactionnisme représente la thèse la plus proche du sens commun : le mental exerce bien une action causale sur le cérébral et, inversement, le cérébral exerce ses propres contraintes sur le mental. Il y a interaction entre les deux entités. Le prix Nobel de médecine Sir J. Eccles et l'épistémologue Sir K. Popper sont, parmi les auteurs contemporains, ceux qui ont le plus contribué à actualiser et à tenter de valider cette hypothèse [15]. Pour Eccles, l'unité de l'expérience consciente dépend de l'esprit et non de la machinerie neuronale. Les processus mentaux transcendent les phénomènes matériels. L'expérience consciente et les phénomènes mentaux s'intègrent dans une organisation hiérarchique avec un contrôle descendant du mental sur les entités neuronales. En outre, ces deux catégories de phénomènes correspondent à des régulations impliquant des lois et des “ forces ” de nature différente. Enfin, l'ensemble s'inscrit dans la logique de la théorie de l'évolution.

Les critiques qui ne manquent pas d'être formulées à l'encontre du modèle de Sir John ne sont pas seulement le fait de matérialistes. En effet, ou bien nous sommes dans le domaine de la science expérimentale et nous n'avons pas à faire référence au mystère, ou bien nous prenons la mesure d'un au-delà de la science qui, par nature n'a pas à être justifié selon les critères de cette dernière. N'y a-t-il pas contradiction entre le fait de proclamer, comme J. Eccles, que l'avènement de chacun de nous en tant qu'être auto-conscient reste “ un miracle à tout jamais au-delà des possibilités d'explication de la science ” et le fait de vouloir donner une explication physique (même quantique) de ce “ mystère qui dépasse notre compréhension ”? Le spiritualisme se nie lui-même quand il cherche à concevoir comme un principe empirique ce qui par principe ne l'est pas.

En fait, aucune de ces deux solutions n'est vraiment satisfaisante. La solution interactionniste laisse ouverte la question de la nature du lien de causalité et du point d'impact des influences mutuelles provenant de la conscience et des structures nerveuses. Quant à la solution paralléliste, elle conduit à ne voir dans le psychisme que le reflet ou l'équivalent subjectif de l'activité nerveuse. On peut finalement se demander à quoi sert le mental dans ce système puisque la description physicaliste suffit (du fait de l’équivalence cérébral/mental). La position paralléliste conduit donc soit à prendre effectivement au sérieux l'hypothèse d’un programme garantissant la correspondance (et ce que cela implique !) soit à ne considérer que le versant matériel de la correspondance qui se suffit à soi-même et donc à se rallier finalement au réductionnisme physicaliste.

[ 15 ] Le neurophysiologiste justifie sa position par un certain nombre d'arguments expérimentaux (comme les expériences de Libet, déjà citées) et fonde son explication sur le rapprochement de la neurophysiologie et de la physique quantique. L'esprit pourrait intervenir sous la forme d'une subtile modification de la probabilité d'émission des neurotransmetteurs au niveau synaptique. Eccles propose d'expliquer une telle modification en se fondant sur la notion de champ de probabilité en physique quantique qui ne véhicule ni matière ni énergie. La transaction pourrait ainsi n'impliquer aucune violation des lois de conservation.

Page 221: Colloque Sur Science

2.4. D’AUTRES HYPOTHESES 2.4.1. L’isomorphisme (J. Piaget) Piaget refuse à la fois l’interprétation interactionniste (du fait de l’hétérogénéité des

éléments en présence) et l’interprétation paralléliste (du fait que les processus psychologiques n’y ont pas de fonction propre) et propose une explication fondée sur la notion d’isomorphisme entre causalité physique et implication logique [ 16]. Il s’agit ici d’une correspondance des structures logiques abstraction faite des contenus et non d’une liaison causale. Il est, selon Piaget, dénué de signification de vouloir appliquer la notion de causalité aux liaisons entre un processus physiologique et la conscience car on ne voit pas sur quel point de cette dernière (puisqu’elle n’est pas spatiale), ni de quelle manière (puisqu’elle ne mobilise ni masse, ni énergie) s’appliqueraient les forces matérielles en jeu dans la causalité physique. La notion de causalité ne s’applique donc pas à la conscience (un état de conscience n’est pas la cause d’un autre). Ainsi, ou bien la conscience n’est rien, ou bien elle relève de catégories originales et spécifiques, qu’ignorent en eux mêmes les faits matériels.

2.4.2. L’hypothèse de transformation (D. Laplane) Le neurologue D. Laplane a proposé une interprétation originale de la relation cerveau-

pensée-conscience fondée sur une hypothèse de transformation postulant le passage d'une forme de réalité (matière-énergie) à l'autre (pensée-conscience). Pour D. Laplane en effet, on ne peut affirmer simultanément l'homogénéité et l'hétérogénéité de ces deux formes de réalité qu'en supposant l'identité des termes (matière-énergie-pensée) ou en postulant leur transformation réciproque (voir Laplane, 1987). S'il y a bien identité, l’énergie répandue dans l'univers doit être aussi nécessairement pensée. “ La pensée (présence à soi) existe en dehors du cerveau et se trouve diffuse dans l'univers qui est présent à lui-même ”. La pensée est “ inhérente ” à la matière-énergie. C'est la thèse défendue par différents physiciens dont J.-E. Charon et avant eux par Spinoza. Mais comment le fonctionnement de notre cerveau pourrait- il interférer avec cette pensée universelle ? D. Laplane préfère donc à la thèse de l'identité matière, énergie, pensée, celle de la transformation de l'énergie en pensée et réciproquement [17]. L'axiome de transformation constitue un a priori qui n'est ni plus

[16] Le mode essentiel de liaison propre à la conscience logique est l’implication. La vérité 2+2=4 n’est pas la cause de la vérité 4-2=2 mais la première implique la seconde. La valeur d’un but implique celle des moyens. Cette implication des valeurs double dans la conscience la série causale des actions « de moyen à but » sans s’y réduire pour autant. La relation entre significations est, sous une forme très générale une relation d’implication. Pour Piaget l'implication logique ne constitue qu'un aboutissement particulier de l'implication au sens large ou implication signifiante qui commande la relation de signifiant à signifié intervenant dans les catégorisations ou désignations, dès le niveau perceptif. Or, ni le lien entre significations, ni la relation de signifiant à signifié ne relèvent de la causalité. Le mode de connexion propre aux phénomènes de conscience n'est autre que cette implication signifiante. Si le système nerveux en conditionne l'effectivité, puisqu'il engendre causalement son substrat matériel, il reste qu'il faut une conscience pour juger des vérités et des valeurs. Le parallélisme entre les états de conscience et les processus matériels concomitants revient à un isomorphisme entre les systèmes d'implications signifiantes et certains systèmes relevant de la causalité. On pourrait considérer qu'il s'agit de deux aspects d'une même réalité : un aspect extérieur lié à la causalité et un aspect intérieur lié à l'implication. [17] A l'objection selon laquelle une telle transformation violerait le second principe de la thermodynamique, Laplane répond en rappelant que l'expérience d'Oersted violait les principes de conservation de la mécanique newtonienne, puisqu'on ne connaissait pas alors le type de relation énergétique qu'elle mettait précisément en évidence. En s'ouvrant à un nouveau type d'énergie (électromagnétique) la physique a récupéré son principe de conservation. Popper évoque la possibilité “ d'interférence de l'extérieur, à partir de quelque chose d'encore inconnu que nous aurions à ajouter au monde physique si nous désirons que la physique soit complète ”. Quant à l'objection de quantification selon laquelle, puisque la matière et l'énergie sont quantifiables, la pensée devrait l'être aussi, D. Laplane admet qu'il est vain d'imaginer un coefficient de transformation puisque la pensée n'appartient pas au monde objectif. Cependant le fait que cette pensée soit toujours associée à une certaine quantité d'information (à laquelle elle ne se réduit pas) et que la notion même d'information, notion qui est elle-même un produit de notre pensée) soit, bien que totalement abstraite,

Page 222: Colloque Sur Science

ni moins valable que les autres interprétations monistes ou dualistes. Selon son auteur, cette hypothèse permet de dépasser les contradictions tant du matérialisme moniste que du spiritualisme dualiste en reconnaissant au cerveau son rôle de “ fabriquant ” de la pensée (fabriquer au sens de mettre en forme, conditionner, donner un contenu objectif et informationnel, pas au sens de créer) tout en faisant du cerveau et de la pensée deux entités nettement distinctes. De plus, si la transformation est réciproque il n'y aurait aucune raison de se scandaliser à l'idée que la matière-énergie puisse provenir d'une pensée.

2.4.3. Le postulat de non-équivalence (S. Watanabe) Comment construire un langage susceptible de rendre compte de la coexistence de termes

mentalistes et physicalistes non-réductibles ? Dans le cadre de la logique ensembliste habituelle de l'algèbre de Boole, si la description physicaliste est complète elle n’a pas besoin d’être enrichie. La question des rapports cerveau-pensée peut être envisagée de manière non exclusive et non additive dans le cadre d’une logique non-booléenne. Dans ce cas la conjonction de deux entités ou états peut être une entité ou un état qui n'est réductible ni à l'un ou à l'autre, ni à l'un et à l'autre. Moyennant certains aménagements de la logique classique (modification de la distributivité, passage d’un treillis booléen à un treilli modulaire), on peut démontrer qu'une description complète au sens physique du terme n'est cependant pas nécessairement adéquate. Selon S. Watanabe, le langage mentaliste dirait sur le langage physicaliste ce qui ne peut être dit dans ce langage. Il a montré que dans une logique “ modulaire ”, on peut accepter à la fois et sans contradiction, la prétention à la complétude du discours physicaliste et l'inadéquation de ce discours qui a toujours besoin d'être enrichi par des propositions mentalistes pour être conforme à la réalité qu'est l'homme [18]. L'intérêt d'une telle approche est de permettre une conception psychophysiologique de la nature humaine sans réduction ni confusion. Matière et esprit sont ici des manifestations irréductibles l'une à l'autre. Bien que la description physicaliste puisse légitimement prétendre représenter la totalité, une telle représentation a toujours besoin d'être enrichie pour rendre compte adéquatement de ce qu’elle représente.

3 – CONFIGURATIONS NEURONALES ET CONSCIENCE

3.1. LES IMPASSES DU COGNITIVISME Comment le cerveau-esprit computationnel produit-il ou s’articule-t- il avec de l’esprit

phénoménologique? Comment des opérations cognitives élémentaires inconscientes peuvent-elles être éprouvées non pas comme telles mais comme un état signifiant du soi conscient ? En fait, le cognitivisme ne propose aucune explication de ce qu’est l’ expérience consciente. Selon le cognitiviste Jackendoff, les éléments de la conscience sont le résultat causal projeté des processus

parfaitement mesurable, ne rend pas complètement absurde l'idée que la pensée serait une “ grandeur ” non mesurable (comme le défend également R. Penrose, revoir § 2.1) [18] Watanabe utilise la métaphore du plan et de la maison. Le plan peut (doit) fournir une description complète de la maison, mais il doit être enrichi (d'une dimension supplémentaire) pour être adéquat à la réalité qu'est finalement une maison. La démonstration de Watanabe repose sur le rejet du postulat d’équivalence (entre proposition mentaliste et proposition physicaliste). A partir du principe de conjonction restreinte et du postulat de non-équivalence il montre que la conjonction d’une proposition (m) et d’une proposition (p) est une proposition qui n’appartient ni à (m), ni à (p) et que donc une description physicaliste complète peut être enrichie. Ainsi, il n’existe pas de description physicaliste complète et adéquate. Une description physicaliste prétendument complète pourra toujours être enrichie par la conjonction non booléenne du physique et du mental puisque le cerveau et la pensée ne “ commutent ” pas.

Page 223: Colloque Sur Science

computationnels. Mais que veut dire “ projeté ”? Ici le cognitivisme a besoin de l’évidence phénoménologique. Or, cela ne va pas de soi car il n’est pas du tout certain que quelque chose soit comme nous l’éprouvons.

Selon la thèse cognitiviste standard, la conscience est une conséquence de la manipulation réglée de symboles. Le terme de symbole utilisé dans le modèle computationnel ne doit pas faire illusion. Il est utilisé ici en un sens purement technique, désignant une chaîne de caractères assimilée à un signifiant dont il reste à préciser qui fournit le signifié. Quelle est précisément la nature de l'opération permettant de passer d'une chose à son symbole ? Un symbole symbolise quelque chose pour quelqu'un. Les règles de correspondance sont fournies, de l'extérieur, par quelque “ programmeur ”. L'analogie avec l'ordinateur montre, certes, comment il est possible de simuler des processus sémantiques par des processus formels, mais elle ne permet pas de comprendre comment le sens vient aux symboles. Comme le souligne J. Searle “ La syntaxe [ ] n’est pas intrinsèque à la physique du système ; elle est dans l’œil de l’observateur [ ] le calcul n’est pas un processus intrinsèque qui se trouverait dans la nature comme la digestion ou la photosynthèse ; il n’existe que relativement à un agent qui donne une interprétation computationnelle à la physique. Il en résulte que le calcul n’est pas intrinsèque à la nature mais relatif à l’observateur ou à l’utilisateur ”. Il s'ensuit donc que ce dernier ne saurait être lui-même réduit à un calcul. De plus, comme le souligne Wittgenstein, un tel calcul suppose d’être effectué : “ Le langage ne se réduit pas à un calcul, au sens d'une manipulation de symboles, sans considération de leur signification. En nous servant du langage nous devons faire quelque chose de la même manière que pour calculer il ne suffit pas de regarder les signes : c'est à nous de faire le calcul ”.

L'approche connexionniste ou neuromimétique considère au contraire que le raisonnement en termes de symboles est totalement inadapté à la problématique esprit-cerveau. Le neuro-calcul privilégie fortement la nature du substrat (réseau de neurones) et sa structure fonctionnelle (connectivité, poids synaptique...). Le recours aux modèles connexionnistes met en évidence une caractéristique essentielle du cerveau humain : la plasticité de sa structure dont l'organisation est susceptible d'être modifiée par le résultat des opérations qu'elle exécute. On peut simuler cette propriété à l'aide d'un réseau d'automates dont la connectivité (la force des liaisons entre éléments ou poids synaptique) se modifie pas à pas en fonction de l'écart mesuré entre le résultat attendu et le résultat effectif grâce à des propriétés de “ rétropropagation ”. Le traitement s'opère ici à un niveau sub-symbolique.

Dans tous les cas le système n'interprète pas lui-même les symboles ou les configurations qu'il manipule, ce sont le concepteur et, plus tard, l'utilisateur, tous deux extérieurs au système, qui projettent sur ces symboles ou configurations une interprétation. On, voit donc difficilement comment on pourrait accorder à un système informatique une intentionnalité intrinsèque. Son intentionnalité apparaît comme une intentionnalité d'emprunt, dérivée de celle du concepteur et de l'utilisateur qui lui font “ crédit de sens ”(voir § 3.3).

3.2. LE CERVEAU NE “ VOIT ” PAS On sait, par exemple, qu'il existe une organisation hautement spécifique du traitement de

l'information visuelle. Les différentes caractéristiques de l'objet sont traitées en parallèle par des canaux distincts (couleur, forme, mouvement, position, contraste...). Or le sujet qui perçoit, celui pour qui cette activation fait sens (signifie une couleur), n'est réductible ni à des aires du cortex visuel, ni à aucune autre région du cerveau susceptible de les scruter car ce sont des couleurs (des objets) dans le monde et non des représentations dans le cerveau que nous percevons. Le cerveau ignore tout des stimulus qu'il reçoit. C'est moi qui perçoit et qui pense et non mon cerveau! Ainsi la vision n'est localisée ni dans la rétine, ni dans le nerf optique, ni dans les corps genouillés, ni dans aucune aire corticale : le cerveau ne voit pas.

Page 224: Colloque Sur Science

Toujours à propos du système visuel, S. Zeky note que “ manifestement il y a plus dans la vision que dans l'œil ”. Celui qui voit n'est “ manifestement ” pas réductible à une subdivision neuro-anatomique. Il en va de même pour la mémoire. Selon F. Crick par exemple “ notre cerveau contient une représentation inactive de la tour Eiffel et quand nous pensons à ce monument, la représentation est activée parce que les neurones appropriés déchargent ” mais ce ne sont évidemment pas les “ neurones appropriés ” qui perçoivent l'évocation de la tour Eiffel. Il existe bien d'autres exemples illustrant l'impossibilité sémantique absolue de rendre compte de quoi que ce soit en matière de perception, de mémoire, d'affects, de cognition ou d'action sans avoir recours à quelque pronom personnel désignant un sujet agissant et conscient. La question de l'interprétation (signification) des configurations ne peut recevoir de réponse non contradictoire à l'intérieur du paradigme cognitiviste. Ce que l'on appelle concept ne fait que renvoyer soit à une série d'états pris par des composants d'une machine électronique ou nerveuse et interprétés comme tel, soit à un énoncé de toute façon produit à l'origine par un humain. Dans les deux cas l'acte de signifier n'est toujours pas expliqué.

Comme l'admet Damasio, l'accès aux images sous leur forme consciente n'est possible “ qu’à partir du point de vue de la première personne ” alors qu’au contraire “ les configurations neuronales ne sont accessibles que du point de vue d’une tierce personne. Si j’avais l’occasion, grâce à une technologie de pointe de contempler mes propres configurations neuronales ce serait toujours du point de vue de la troisième personne ”. Comme nous l’avons déjà souligné, “ même une connaissance complète de la représentation neuronale ne saurait, sans être validée par le témoignage du sujet, nous dire quelle sensation est en train d'être subjectivement vécue ” (B. Libet). A. Damasio reconnaît également qu’ “ Il est faux de penser qu’on puisse effectivement comprendre la nature des expériences subjectives en étudiant leurs corrélats comportementaux [ ] Vous ne voyez pas ce que je vois quand vous examinez mon activité cérébrale ; vous voyez une partie de mon activité cérébrale au moment où je vois ce que je vois [ ] Je n’ai pas besoin de savoir quoi que ce soit sur le comportement des neurones et des molécules des différentes parties de mon cerveau pour faire l’expérience de la baie de San Francisco ”

Certes ! et tout le monde est bien d’accord là-dessus. Mais alors comment passe-t-on de la configuration neuronale de la baie de San Francisco à l’expérience subjective de l’image mentale associée à cette configuration ? C’est la notion même de représentation (symbolique ou non) qui est ici en cause et qu’il convient de discuter.

3.3. COMMENT UNE “ CONFIGURATION NEURONALE ” FAIT-ELLE SENS ? Comment une configuration neuronale fait-elle sens? De quoi et pour qui est-elle une

représentation ? Qui l'interprète? Comment l'adéquation de la représentation au “ réel ” est-elle garantie? Comme le souligne D. Dennett “ rien n’est intrinsèquement une représentation de quoi que ce soit ; quelque chose est une représentation seulement pour ou de quelqu’un ; ainsi n’importe quelle représentation ou système de représentation requiert au moins un utilisateur et un interprète externe à cette représentation [] Un tel interprète est alors une sorte d’homoncule. Il s’ensuit qu’une psychologie sans homoncule est impossible tandis qu’une psychologie avec homoncule est condamnée à une régression circulaire ou infinie, ainsi, la psychologie est impossible ”. C’est du signifié que le signe reçoit son importance. Aucun objet, dégagé de la relation sémantique triangulaire, n’est jamais par lui-même un signe, ni naturel ni artificiel.

Antonio Damasio est parmi ceux qui refusent catégoriquement la notion d’homoncule : il suffit, explique-t- il que les états successifs de l’organisme donnent lieu à des représentations neurales donnant elles-mêmes lieu à des images mentales. Les images sont produites à partir des configurations neuronales. Certes, mais le problème de la conscience est précisément de savoir “ comment le cerveau engendre les configurations mentales que nous appelons images à partir de

Page 225: Colloque Sur Science

configurations neuronales (c’est le problème des qualia) et comment parallèlement le cerveau engendre aussi un sentiment de soi dans l’acte de connaître ” (A. Damasio).

Mais que pourrait- il y avoir d'autre dans le cerveau que des configurations neuronales? Si des configurations neuronales sont perçues subjectivement comme des images, et que dans le cerveau on ne rencontre que des configurations neuronales (et non des images qui supposent d’être interprétées et vécues comme telles), cela implique que le passage d'une configuration neuronale à un vécu subjectif n'est pas une configuration neuronale de plus. Damasio prétend arrêter la régression au niveau des représentations dites de second ordre. “ [une] configuration d'activité peut faire l'objet d'une représentation au sein des structures de second ordre [ ] Le sens que nous avons de l’émotion comme objet découle de la représentation que nous formons de la configuration d’activité des sites qui induisent l’émotion ”. Si l'on compare l'élaboration des images mentales au déroulement d'un film, il s'agit alors, selon Damasio, de comprendre comment le cerveau engendre également le sens que l’on a qu’il existe bel et bien un propriétaire et un observateur de ce film. “ Il s’agit d’engendrer l’apparence d’un propriétaire et d’un observateur du film, à l’intérieur du film lui même [ ] L’histoire contenue dans les images de la conscience noyau n’est pas racontée par quelque homoncule intelligent. Et l’histoire n’est pas non plus racontée par vous en tant que vous êtes un soi parce que le vous ne naît qu’au moment où l’histoire est racontée, à l’intérieur de l’histoire elle-même ”

Quelle qu’en soit la forme, la question de savoir comment le sens vient aux symboles (comment on passe d’une configuration neuronale objective à une représentation mentale subjective indépendamment du type de couplage supposé entre l’objet et la configuration neuronale associée), cette question ne laisse finalement le choix qu’entre trois types de réponses : celle de l’homoncule (quelqu’en soit la forme), celle du méta-niveau censé arrêter la régression et celle de “ l’incomplétude ” [19.

Certains postulent, en effet, l'existence d'un “ méta-niveau inviolable ” qui peut prendre la forme d'un “ module superviseur ”, d'un “ système de fixation des croyances ” (Fodor) ou encore d'un “ générateur d'hypothèses ” (Gazzaniga), tous plus ou moins “ cognitivement impénétrables ” (Pylyshyn). Mais alors, ou bien une telle instance est de nature différente de toutes les autres et on sort du paradigme cognitiviste, ou bien elle est de même nature (elle traite de l'information) et il ne s'agit que d'une représentation d'ordre supérieur qui ne répond pas davantage à la question de l'interprétation. On peut affirmer avec Cummins qu'un “ crédit de sens ” est nécessaire à l'origine pour amorcer, en quelque sorte le processus d'interprétation. Certains ajoutent même que ce pseudo-cognitivisme devra se démettre s'il se révèle incapable d'honorer sa dette! Il est clair pour Fodor que les processus cognitifs centraux ne sont pas modulaires et “ c'est - dit-il - une bien mauvaise nouvelle pour les sciences cognitives ”. C'est pourquoi, poursuit- il, “ il ne faut pas se faire beaucoup d'illusions sur les perspectives d'une neuropsychologie de la pensée ”. Quant au crédit de sens dont parle Cummings, on connaît bien l’identité du créditeur dans le cas de l’ordinateur mais s’il en va de même pour l’esprit humain, qui lui a fait crédit ? et de quoi au juste lui a-t-on fait crédit ?

3.4. UN ABUS DE LANGAGE Une manière courante de résoudre la question de savoir comment et pour qui les

configurations neuronales font sens est d’attribuer à tout ou partie d’un ensemble de structures en intéraction, voire à une structure unique, le pouvoir suprême d’interprétation que l’on refuse précisément à l’homoncule. Paradoxalement on retombe alors dans un forme d’animisme ou de vitalisme qui attribue à la matière cérébrale les propriétés caractéristiques de l’esprit (intention,

19 Voir Lambert, 1991

Page 226: Colloque Sur Science

désir, volonté, conscience). Parler de “ la manière dont le cerveau est attentif à l’image d’un objet ” est typiquement un abus de langage. Comme le souligne le philosophe allemand E. Straus, “ on peut difficilement parler de la compréhension qu’exerce sur lui-même le cortex [ ] Ce n’est pas un cerveau qui évalue mais quelqu’un [ ] Entre deux processus nous pouvons saisir des relations temporelles, mais un processus ne sait rien de l’autre. Un processus ne se compare pas lui-même à un autre ”.

En fait, toutes les théories réductionnistes présupposent à leur insu ce qu’elles prétendent éliminer. Dire que le cerveau “ pense ” procède de l'amalgame de deux discours qui ne cessent d’être corrélés mais qui restent irréductibles l'un à l'autre (voir 4). La seule alternative à la régression des homoncules comme à l’attribution animiste de désirs à la matière, c’est de prendre acte du fait qu’il n’y a pas de réponse à la question de la signification dans la répétition du “ même ” (configuration de configuration) mais seulement dans la reconnaissance d’une altérité, dont l’incomplétude “ fait signe ” [ 20 ]. En objectivant le monde, quelqu’un s’objective paradoxalement comme inobjectivable. Les processus neuronaux fonctionnellement nécessaires à la conscience et à la pensée impliquent l’existence d’un co-principe qui ne peut qu’échapper à l’observation empiriquement objectivante : ce qui permet de quantifier n’est pas quantifiable [21].

4 - CONCLUSION : UN “ TIERS ” INACCESSIBLE “ Il y a en dans le moi une sorte de commencement absolu dont l'origine est inexplicable

d'un point de vue purement physique. Chacun de nous est, au milieu du monde, un point de vue unique et irremplaçable qui fait de l'univers entier le décor de son moi. L'esprit situe tout par rapport à soi. Mais, et c'est bien là le paradoxe de notre finitude, le même esprit qui situe et (me) pose est lui-même situé sans avoir l'initiative de la situation. Il est posé sans s'être posé lui-même. Je situe tout de mon point de vue mais je n'ai pas choisi ce point de vue qui est justement le mien. Je peux, jusqu'à un certain point, déterminer toute chose mais je ne détermine pas la position contingente à partir de laquelle je détermine ou envisage de déterminer toute chose ” (P. Léonard).

Quelque chose (quelqu'un) résiste. “ La totalité se dérobe nécessairement ” (J. Ladrière). Cette conception de la totalité-qui-se-dérobe est partagée par bien des auteurs dont les convictions sont par ailleurs très diverses. C'est, en particulier, le cas de C. Castoriadis qui, pour exprimer une telle réalité a créé le concept de magma. “ Un magma est ce dont on peut extraire (ou: dans quoi on peut construire) des organisations ensemblistes en nombre indéfini, mais qui ne peut jamais être reconstitué (idéalement) par composition ensembliste (finie ou infinie) de ces organisations [ ] Il en résulte qu'il existe des domaines auxquels des énoncés significatifs peuvent être référés, mais qui ne satisfont à aucune théorie déterministe ”. Ainsi “ l'activité de formalisation elle-même n'est pas formalisable ”.

Le sujet conscient apparaît comme une absence nécessaire (une “ fiction ” agissante) pour expliquer la présence du résultat. Il est ce qui produit [co-construit] du symbolique. Le sujet n'est pas de l’ordre de la substance [22]) mais de l’ordre de l’acte en lui-même non objectivable. Il est, en 20 Voir Lambert, 1997. [21] Comme ce qui permet de calculer n’est pas calculable. Si le monde est réductible à un calcul, il est ultimement inaccessible et cette inaccessibilité est la condition même de sa calculabilité (voir Lambert, 1999). [22 ] Pour Aristote la question de la substance est identique au problème de l'être. Elle constitue la première des catégories, relative à l'identité - à l'essence - de l'être. Elle exprime le quoi c'est contrairement à la catégorie de l'existence qui désigne le si c'est. La substance constitue la réponse à ce que l'on demande quand on pose la question de l'être [de l'étant]. La substance est une abstraction opérée à partir du concret : c'est un principe d'intelligibilité. Elle renvoie au ceci-que-je-montre, à ce qui est connaissable. Elle désigne le support de la diversité, le substrat, le ce qu'il y a par là-dessous. La matière est certes le support universelle des choses concrètes mais elle est a priori totalement

Page 227: Colloque Sur Science

effet, impossible de “ représenter ” un acte : il ne peut être qu’effectué. La conscience ne peut qu’échapper à toute forme de représentation. Si la connaissance est du côté de l'être, la signification est du côté de l'agir [de l'étant]. Mais définir la conscience en termes d'expérience vécue conduit à une régression sans fin dans la mesure où, comme nous l’avons souligné en introduction, il faudrait pouvoir définir l'expérience vécue indépendamment de la conscience. C'est précisément l'arrêt de cette régression qui donne à la conscience son effectivité dans la mesure même où les modalités d'un tel arrêt lui échappent (voir Lambert, 1997, 1999).

Certes, les neurosciences se doivent de mettre entre parenthèses l'existence de la subjectivité pour ne concentrer leur effort que sur l'objectivité des mécanismes cérébraux et des comportements auxquels ils sont associés. Mais quand on prétend ensuite rendre compte de cette subjectivité que l'on a d'abord écartée du champ de son investigation - en postulant son identité aux mécanismes objectifs - on transgresse les limites de la science. Le scientisme consiste précisément à nier ce qui a été mis entre parenthèses, à occulter l'opération de clôture constitutive du savoir scientifique. Un autre type d'erreur, tout aussi fatale, consiste à oublier que les parenthèses sont nécessaires et à réintroduire subrepticement dans le discours scientifique des considérations que l'exigence critique conduit justement à mettre entre parenthèses. Prétendre montrer où et comment l'esprit interagit avec le cerveau procède d'un paralogisme de même nature que celui qui consiste à en nier l'existence parce qu'il appartient à un domaine de la réalité dont la science s'est a priori interdit l'accès.

C’est au prix d’une simplification abusive qu’on en vient à opposer massivement dualisme spiritualiste et monisme matérialiste. Les discours tenus d’un côté et de l’autre relèvent de deux perspectives hétérogènes, c’est-à-dire non réductibles l’une à l’autre et non dérivables l’une de l’autre. Il paraît légitime de défendre un dualisme sémantique exprimant une dualité de perspective, un dualisme des référents et non de substances, comme le suggère P. Ricoeur. Le mental vécu implique le corporel irréductible au corps objectif des sciences de la nature. Le corps, cet objet qui est mien en même temps qu’il est moi. Corps-objet et corps-vécu ou corps-propre. Le corps figure deux fois dans le discours, comme objet du monde et comme lieu d’où j’appréhende le monde Or, il n’y a pas de passage d’un discours à l’autre. “ Ou bien je parle des neurones ou bien je parle de pensée que je relie à mon corps avec lequel je suis dans un rapport de possession et d’appartenance réciproques : mes pieds ou mes mains ne sont miens que vécus comme tels ” (P. Ricoeur). En revanche aucun vécu ne correspond à mon cerveau. Je prends avec mes mains n’est pas identique à je pense avec mon cerveau (revoir A. Bourguignon § 1.2). Le cortex ne sera jamais dans le discours du corps propre. Comme nous l’avons déjà dit avec Damasio (§ 3.2.2), mes connaissances sur le cerveau ne change en rien l’expérience de mon corps vécu.

Nous comprenons soit un discours “ psy ” soit un discours “ neuro ” mais leur relation fait problème parce que nous n’arrivons pas à inscrire leur lien à l’intérieur de l’un ou l’autre. Nous manquons du discours tiers “ ni-ni ”. C’est le même corps-cerveau-esprit qui est vécu et connu, c’est le même homme qui est corporel et mental, mais d’un point de vue que je ne sais pas, un point de vue tiers englobant l’unité de substance. omme Paul Ricoeur, on ne peut être que sceptique quant à la possibilité de tenir un tel discours de surplomb.

La question cruciale pour l’homme n'est pas tellement de savoir si l'on peut réduire le

mental au neural ou si l'on peut, grâce à la physique quantique rendre compte de leur interaction, mais celle du fondement, de l’origine, de la sauvegarde de son humanité et cette question continuera de se poser quelle que soit l'idée que l'on se fait du rapport entre le cérébral et le mental.

indéterminée. Il s'agit d'une véritable matière première, support possible de toutes les déterminations donc ne portant en elle -même aucune détermination. Le dualisme correspond-il alors à une réalité ontologique ou ne traduit-il qu'une difficulté d'ordre gnoséologique exprimant seulement un problème d'intelligibilité. La dualité se résoud dans l'unité de l'acte.

Page 228: Colloque Sur Science

REPERES BIBLIOGRAPHIQUES AMSTRONG, D.M. A Materialist Theory of the Mind, Routledge & Kegan Paul, 1968. ANDERSON, A.R., (dir.). Pensée et machine (trad. franç.), Champ Vallon, 1983. ARSAC, J. Les Machines à penser, Seuil, 1987. BERGSON, H. “ Le cerveau et la pensée: une illusion philosophique ”. L'Energie spirituelle,

P.U.F., 1972 (148ème éd.). BITBOL, M. Physique et philosophie de l’esprit, Paris, Flammarion, 2000. BOURGUIGNON, A. “ Le problème esprit-cerveau ”. Le cerveau et l’esprit, sous la direction de H. Barreau, CNRS Editions, 1992. CASTORIADIS, C. “ La logique des magmas et la question de l'autonomie ”. L'auto-organisation, de la physique au politique, Seuil, 1983. CHANGEUX J.P. L'Homme Neuronal, Fayard, 1983. CHANGEUX J-P. et CONNES, A. Matière à pensée, Odile Jacob, 1989. CHANGEUX, J-P. et RICOEUR, P. La nature et la règle. Ce qui nous fait penser, Odile Jacob, 1998. CRICK, F. L’hypothèse stupéfiante. A la recherche scientifique de l’âme (trad. franç.), Plon,1995. CUMMINS, R.. The Nature of Psychological Explanation, Bradford Books / MIT Press, 1983 DAMASIO, A. R. L’erreur de Descartes. La raison des émotions (trad. franç.), Odile Jacob, 1995. DAMASIO, A. R. Le sentiment même de soi. Corps, émotions, conscience (trad. franç.), Odile Jacob, 1999. DEBRU, C. Neurophilosophie du rêve, Paris, Hermann, 1990. DENNETT, D.C. Brainstorn, Bradford Books & Harvester Press, 1978. DENNETT, D.C. La conscience expliquée, Odile Jacob, 1993. ECCLES, J.C., Le Mystère Humain, Mardaga, 1981. ECCLES, J.C. Evolution du cerveau et création de la conscience. A la recherche de la vraie nature de l’homme (trad. franç.), Fayard, 1992. ECCLES, J.C. Comment la conscience contrôle le cerveau (trad. franç.), Fayard, 1997. EDELMAN G.M., Biologie de la Conscience (trad. Franç.), Odile Jacob, 1992. FEIGL, H. The Mental and the Physical, Minneapolis, 1967. FODOR, J.A. La modularité de l’esprit, essai sur la psychologie des facultés (trad. Franç.), Editions de Minuit, 1986 GAUCHET, M. L’inconscient cérébral, Seuil, 1992. GAZZANIGA, M. Le cerveau social. Robert Laffont, 1987. HOFSTADTER, D. et DENNETT, D. Vues de l'Esprit, InterEditions, 1987. LADRIERE, J. “ Wittgenstein et la philosophie analytique ”. Science et foi, Desclée International, 1982. LAMBERT, J.F. “ Corrélats Electro-encéphalographiques des Etats de Conscience Volontairement Modifiés (ECVM) ”. Les Relaxations Thérapeutiques Aujourd’hui. Actes du Premier Colloque International de Relaxation, l’Harmattan, 1987, tome 2, 48-58. LAMBERT, J-F. “ L’Epreuve du Sens : Science et Incomplétude ”. Les Cahiers Jean Scot Erigène (3) : Connaissance Ttraditionnelle, Connaissance Rationnelle, Trédaniel, 1991, pp 135-222. LAMBERT, J-F. “ L’absence qui fait signe : les sciences cognitives et la naturalisation de l’esprit ”. L’Esprit et la Nature, Cahiers du GERC (5). Archè Edidit, 1997, pp 9-35. LAMBERT, J-F. “ Inaccessibles Commencements ”. Phréatique - Langage et création, 88 , 1999, pp 12-24 LAMBERT, J-F. “ Durée et expérience consciente : à propos des expériences de Libet ”. Bulletin de l’Association des Scientifiques Chrétiens, n°3, 2000, pp 25-66.

Page 229: Colloque Sur Science

LAPLANE, D. La mouche dans le bocal. Essai sur la liberté de l’homme neuronal, Plon,1987. LAPLANE, D. et DUBOIS, B. “ Auto-Activation Deficit : A Basal Ganglia Related Syndrome ”. Movement Disorders, 16, 5, 2001, pp 810-814. LEONARD, P. Les raisons de croire, Fayard-Communio, 1987. LIBET, B et al. “ Time of conscious intention to act in relalion to onset of cerebral activity (readiness potential) ”. Brain, 1983, pp 106: 623. LIBET, B. “The Neural Time. Factor in Perception, Volition and Free Will in Neurosciences et philosophie, le problème de la conscience ”. Revue de Métaphysique et de Morale, N°2, 1992, pp 255-272. GAZZANIGA, M. Le Cerveau social, Robert Laffont, 1987. MINSKY, M. La Société de l'Esprit, InterEditions, Paris 1988. OPPENHEIM-GLUCKMAN, H. Mémoire de l’absence. Clinique psychanalytique des réveils de coma. Masson, 1996. PENROSE, R. Les ombres de l’esprit (trad. franç.), InterEditions, 1996. PENROSE, R. Les deux infinis et l’esprit humain (trad. franç.), Flammarion, 1999. PIAGET, J. “ L’explication en psychologie et le parallélisme psychophysiologique ”. Traité de psychologie expérimentale, tome 1, ch. III, PUF, 1966. POPPER, K. et ECCLES, J.C. The Self and its Brain, Springer-Verlag, 1977. PYLYSHYN, Z.W. Computation and cognition, Bradford Books / MIT Press, 1984. SEARLE, J.R., Du cerveau au savoir, Ed. Hermann, Paris, 1985. SEARLE, J.R. Le mystère de la conscience (trad. franç.), Odile Jacob,1999. SPERRY, R. Science and Moral Priority, Columbia University Press, 1983. STRAUS, E. Du Sens des Sens, Ed. J. Millon, 1989 (éd. originale Berlin, 1935). TURING, A.M. “ Les ordinateurs et l’intelligence ” in Anderson, A.R. (dir.) Pensée et machine (trad. franç.), Champ Vallon, 1983. VARELA, F., THOMPSON, E., ROSCH, E.. L’inscription corporelle de l’esprit. Sciences cognitives et expérience humaine, Seuil, 1993. VARELA, F.J. Connaître. Les sciences cognitives, tendances et perspectives (trad. franç.), Seuil, 1989. VINCENT, J.D., La chair et le diable, Odile Jacob, 1996. WATANABE, S. “ A model of mind-body relation in terms of modular logic ”. Boston Studies in the Philosophy of Science, D. Reidel Publishing Company, 1963, pp 1-41. WITTGENSTEIN, L. Notes sur l’expérience privée et les sense-data (trad. Franç.), T.E.R., 1982. ZEKI, S. “ Les images visuelles ”, Pour la Science, nov. 1992, pp 60-68.

Page 230: Colloque Sur Science

8 - La pensée sans langage

Les rapports entre pensée et langage. Essai de contribution de la neuropsychologie à la discussion sur la vison du réel en physique

par D. Laplane

Mon point de départ sera la phrase d’introduction de l’exposé fait ici même par M. Nicolescu1 sur les niveaux de réalité : “ Je parle en tant que physicien, certes mais un physicien qui essaye de réfléchir sur ce qu’il fait. Lorsque nous sommes dans le domaine de la réflexion, il est honnête de dire que nous sortons de notre domaine proprement dit, c’est-à-dire le domaine technique ”.

Je voudrais vous montrer comment la réflexion sur le langage et sur la pensée sans langage peuvent éclairer cette phrase que le profane pourrait trouver énigmatique et qui n’est pas sans gêner les physiciens eux-mêmes.

Pour rester dans les limites qui me sont assignées, je serai obligé d’aller assez vite et je ne pourrai pas toujours fournir en détail les justifications de ce que je serai amené à dire mais je les fournirai autant que de besoin dans la discussion.

Pour commencer, précisons nos termes : j’appellerai pensée le traitement conscient de l’information, de toute information car les états affectifs font partie de la pensée et sont le résultat d'un certain mode de traitement de l'information. Je ne chercherai pas à définir la conscience, ce qui entraînerait une longue discussion. D’un autre côté, inclure les mécanismes inconscients de la pensée, de l’inconscient cognitif ou freudien, nous aurait conduit à enfoncer des portes ouvertes.

J’appellerai langage l’utilisation de symboles articulés entre eux par des règles de syntaxe. La pensée sans langage peut "performer" à un haut niveau. En tant que neurologue, c’est l’observation des aphasiques qui m’a fourni mon point de

départ : les aphasiques ont perdu, à des degrés divers, le langage aussi bien intérieur qu’extérieur. On ne doit pas confondre aphasie et mutisme. Or il est manifeste que les aphasiques pensent et il était admis des premiers auteurs que l’intelligence des aphasiques était normale. Ce point a été mis en doute au début du 20e siècle mais la formulation actuelle est que cette intelligence, évaluée par des tests non verbaux peut être effectivement intacte et donc atteindre des niveaux de performance élevés chez les sujets de haut niveau avant leur accident. Mais on peut aussi s’adresser aux organismes dépourvus de langage comme les animaux de divers niveaux de complexité, les jeunes enfants, les sourds-muets, ou, si on veut avoir à faire aux plus hautes performances, le meilleur modèle est constitué par les hémisphères droits séparés de leur homologue par callosotomie. Des artifices d’examen permettent alors d’interroger l’hémisphère droit qui est sans langage. Je vous donnerai seulement les conclusions de Sperry qui a eu le prix Nobel sur ce sujet et dont les conclusions n’ont jamais été remises en cause : "Clairement, l'hémisphère droit perçoit, pense, apprend, et se souvient, à un niveau tout à fait humain. Sans le recours du langage, il raisonne, prend des décisions "cognitives", et met en œuvre des actions volontaires nouvelle". Ou encore : "l'hémisphère droit est supérieur (au gauche) dans des tâches nouvelles qui impliquent un 1 Voir tome 2, page 18.

Page 231: Colloque Sur Science

raisonnement logique… La capacité de l'hémisphère droit à apprendre par expérience, en mémorisant des tests passés quelques jours ou quelques semaines auparavant est aussi difficile à concilier avec le concept de simple automatisme”2.

Il ne fait donc aucun doute que le cerveau puisse "performer" à un haut niveau sans utiliser le langage, naturellement en dehors des tâches linguistiques ou nécessitant le langage par leur nature ou leur présentation.

Dire ceci n’est pas affirmer que le langage ne sert rien dans la pensée et que le cerveau qui en est dépourvu n’est pas privé d’un instrument ultra précieux, comme on y reviendra en examinant le rôle du langage dans la pensée. Seule est complète la pensée exprimée dans un langage.

Le langage n’est pas directeur mais instrument de la pensée sans langage. Pour comprendre le rôle du langage, il est important de réaliser cependant que celui-ci n’est

jamais directeur mais exécutant. Les très classiques travaux de Luria, dans les années 60, ont montré que des lésions frontales, n’intéressant en rien le langage, sont capables de désorganiser la pensée. Une des épreuves les plus classiques consiste à faire raconter une histoire, bien connue du patient avant son accident ou sa maladie, le Petit Chaperon Rouge, par exemple, ce qui aboutira à un récit incohérent dont les rapports au conte sont seulement de détails, où la mère-grand finit parfois par manger le loup ! Les tests à la Luria consistent à demander, après vérification des capacités élémentaires de calcul : “douze livres sont répartis sur deux étagères, il y en a deux fois plus sur l’étagère du bas que sur celle du haut. Combien cela fait- il sur chacune d’elles ? Ou encore, Pierre est plus grand que Jacques mais plus petit que Paul, quel est le plus grand des trois"? Là aussi, le malade échoue. L’intégrité du module langagier ne compense pas le trouble profond de la pensée. Plus banalement, aucun délire ne peut être rattaché à un trouble du langage. Il faut donc bien que l’anomalie se situe quelque part ailleurs. Je ne donnerai qu’un exemple celui des délires des asomatognosiques. Ces patients ignorent la paralysie et l’insensibilité de la moitié gauche de leur corps et en “oublient” en outre l’existence même. Certains de ces malades présentent à ce sujet un véritable délire, accusant, par exemple, le personnel d’avoir volé leur main gauche et de l’avoir cachée dans un tiroir. Bisiach3 rapporte le cas de ce patient auquel on présente dans le champ visuel non négligé sa main gauche qu’il ne reconnaît pas comme telle. Il en tire la conclusion saugrenue que le médecin qui tient cette main entre les deux siennes a trois mains. Devant l’étonnement du médecin, il ne sait que rajouter : “si vous avez trois mains, c’est que vous avez trois bras”. La logique de cette formulation témoigne bien de l’intégrité du langage par ailleurs entièrement respecté, mais celle-ci n’empêche pas le patient de délirer ! C’est la destruction de l’image de son corps et la déstructuration de l’espace qui sont responsables et ce ne sont pas des notions verbales. Ces exemples ne sont pas les seuls utilisables pour montrer que la pensée non verbale est l’organisateur de la pensée complète mais ce sont les plus simples et ils sont suffisants. En conclusion la pensée non verbale existe et c’est elle qui organise la pensée en général.

Quelle idée se faire de la pensée non verbale ? Le mentalais

2 Sperry R.W. Consciousness personal identity and the divided brain Neuropsychologia 1984 22 661-673 3 Bisiach E. Language without thought in Thought without language L.Weiskrantz edit.Oxford Science Publication 1988 464-483

Page 232: Colloque Sur Science

Mais quelle idée se faire de cette pensée non verbale ? Les cognitivistes américains comme Pinker, à la suite de Fodor soutiennent paradoxalement que cette pensée non verbale doit nécessairement reposer sur un langage cérébral inconnu, le mentalais. Le seul argument fourni est que le cerveau étant une machine de Turing, il a besoin d’un langage. La discussion sur ce point nous entraînerait trop loin. Il serait paradoxal que le cerveau, muni d’un langage universel se soit doté d’un énorme organe du langage simplement pour produire un langage spécifique, plein de défauts responsables de son ambiguïté alors que le mentalais est censé en être dépourvu, ce qui peut être montré linguistiquement impossib le. On voit aisément, par exemple, que la polysémie est inévitable et tient au fait qu’il n’existe pas de classification universelle permettant de découper la réalité en catégories répondant à tous les besoins.4 A cela s’ajoute une autre difficulté : d’une façon générale, plus une langue est précise, plus étroit est le champ sémantique couvert. Les langages de logique formelle sont sémantiquement vides, ils sont incapables d’enfermer toutes les mathématiques, ni les mathématiques toute la physique, ni le physique toute la biologie. Que dire alors des sciences humaines ou de la philosophie ? La rigueur logique et l’extension du champ couvert sont en opposition. Le langage oral courant n’est même pas la variété de langage la moins rigoureuse. Le langage intérieur étudié par Vygotsky5 le bat encore sur ce terrain. Il existe donc des degrés dans la rigueur que je suggère d’appeler degrés de formalisation. La tentation est donc grande d’extrapoler et de suggérer que la pensée est informelle, c’est-à-dire, dans le vocabulaire que je propose, qu’elle fonctionne sans symboles et sans syntaxe. Cette extrapolation devient une exigence si on ajoute que la pensée sans langage inclut tout ce qui nous habite, y compris nos sentiments que les cognitivistes oublient trop facilement de prendre en compte et que certains philosophes redoutent.

Les études poussées dans le domaine dit de la “vie artificielle” ont mis en évidence ce dont

on pouvait se douter, à savoir que pour interpréter le monde extérieur (mais c’est aussi vrai pour le langage), nous sommes dans la nécessité de mobiliser en permanence des myriades de renseignements que nous avons acquis depuis notre plus tendre enfance. Nous sommes pris dans une trame d’une infinie complexité, impossible à mettre en programme (en langage) informatique. Il est évidemment clair que le mentalais ne ferait pas mieux, ni quelque langage que ce soit. Prenons un exemple concret. "Celui- là aussi, il a eu soif" est une phrase qui en elle même ne dit pas grand chose ou plutôt des choses un peu différentes selon que vous vous situez devant la gamelle vide de votre chien, devant un jeune arbuste qui baisse la tête ou un plancher disjoint. Le sens général reste le même : le manque d'eau (et non la soif que seul le chien peut avoir éprouvée). Mais si la parole est dite un jour d'été torride par un conducteur qui vient de se désaltérer avec sa petite famille alors qu’il double difficilement un motocycliste zigzaguant sur la route, vous saurez que ce dernier a bu trop de vin. L'étonnant est qu'un enfant de trois ans et demi, au langage à peine ébauché est capable de saisir cette simple allusion “Celui- là aussi, il a eu soif” et de le prouver en commentant : “c'est pas bien de boire trop de vin”. Cette petite phrase renvoie à une masse prodigieuse de connaissances. Quelques-unes sont d'origine probablement verbale (le jugement moral, les méfaits du vin), les autres de l'ordre de l'expérience. Le langage est à peine formé qu'une phrase aussi laconique renvoie instantanément ce jeune enfant à une foule surprenante d'éléments qui vont du sentiment biologique élémentaire à l'éthique. Il serait en outre surprenant qu’un raisonnement discursif puisse avoir l’instantanéité observée dans la circonstance, surtout avec un processeur aussi lent que les neurones.

Les réseaux neuronaux

4 D.Laplane loc.cit. 5 Vygotsky LS Thought and language Edited and translated by E.Hanfmann and G. Vakar MIT. Press Cambridge Mass.1975

Page 233: Colloque Sur Science

C’est là que les machines du type réseaux neuronaux me paraissent très intéressantes. Leur

seule ressemblance avec le cerveau est de réunir en réseaux des unités de calcul, mais ce n’est déjà pas rien. Tout le reste ou presque diffère du cerveau. En tout état de cause, une machine regroupant quelques centaines de pseudoneurones portant chacun dix synapses est déjà une énorme machine ; le cerveau comporte plusieurs dizaines de milliards de neurones, portant de mille à cent mille synapses. Il est d’ailleurs possible qu’en ne voyant du cerveau que les connexions neuronales nous ne saisissions qu’une modalité de son fonctionnement. Ce qui est attrayant c’est que ces réseaux en tant que tels n’ont pas de vocabulaire ni de syntaxe mais ont des caractéristiques qui correspondent au fonctionnement cérébral : mémoires sans adresses, sans localisation, améliorées par la répétition, mémoire sensible aux indices, mémoire ne se dégradant que progressivement par destruction des neurones qui la soutiennent et peut être par-dessus tout mémoire faillible capable de confondre des messages trop proches. Autant de caractéristiques partagées avec la mémoire humaine. La dernière est peut-être la plus intéressante, car confondre des messages trop proches, c’est établir des ressemblances, une activité où excelle le cerveau et où les ordinateurs classiques sont si médiocres. Considérons une expérience de Rumelhardt6 : il construit un système de réseaux auquel il va apprendre à associer entre eux des messages. Pour rendre compréhensible l’expérience, il donne aux messages des noms de code faciles à retenir : rose, marguerite, pin, chêne etc. et rouge-gorge, canaris etc. On associe à la première série une autre série de messages, codée sous le nom de propriétés, telles que : avoir des racines, des feuilles, des fleurs etc. et à la deuxième série, avoir des ailes, des plumes, être capable de voler etc. Lorsqu’on examine ensuite la configuration interne du réseau (la matrice des pondérations synaptiques pour être précis), on se rend compte que le réseau a assigné des conformations similaires à des items possédant des propriétés semblables : pin et chêne, rose et marguerite, d’une part, canari et rouge-gorge de l’autre. Si maintenant on introduit un nouveau terme comme celui de moineau, et qu'on entraîne le réseau à répondre qu'il s'agit d'un oiseau, d'un animal, d'un être vivant etc., on voit le réseau former progressivement pour moineau un patron de répartition des pondérations synaptiques très proche de celui de canari ou rossignol avec, en conséquence, des réponses correctes à des questions sur le fait qu'il a des ailes et des plumes, qu'il est capable de grandir et de voler, sans qu’on le lui ait appris explicitement. Rumelhardt en tire la conclusion que le réseau est, dans une certaine mesure, parvenu à “généraliser” un concept. On ne se prendra pas au mot, c’est évidemment l’expérimentateur qui observe cette généralisation dont la base matérielle est dans le réseau.

Il est évident que Rumelhardt s’est donné la facilité d’attribuer une valeur sémantique aux messages et qu’on ne sait pas comment le cerveau y parvient. Mais le cœur de l’expérience reste que le réseau construit par Rumelhardt est capable d’adopter des conformations fonctionnelles proches pour des items qui regroupent des propriétés analogues.

Le rôle du langage Quel rapport avec le langage ? On aperçoit bien, à travers l’expérience de Rumelhardt

comment peut naître le concept d’oiseau. Est oiseau cette entité qui a des plumes, qui vole, qui a un bec, etc… Tout ce qui répond à cette caractéristique commune a les mêmes propriétés comme, par exemple, de pondre des œufs. L’unité ne se fait pas autour du mot oiseau, mais sur la base de configurations synaptiques apparentées. Ici le concept n’est pas un mot. Il est bien évident qu’un enfant qui ne sait pas encore parler a le concept d’oiseau dans sa tête, dès qu’il en a vu quelques-uns, même très différents les uns des autres, y compris, si cela se trouve, un oiseau artificiel qui

6 Rumelhart DE (1990) Brain style computation. Learning and generalizzation In ZF Zometzer, JL Davis, and C Lau (edts) An introduction to neural and electronic networks pp408-420 Academic Press San Diego CA

Page 234: Colloque Sur Science

chante si on lui remonte sa mécanique. L’enfant sait bien à la fois que c’est un oiseau mais qu’il est faux et qu’il ne possède pas toutes les caractéristiques d’un oiseau. Il n’est d’ailleurs pas nécessaire de s’adresser à un cerveau aussi évolué que celui d’un enfant pour se persuader que l’identification d’un oiseau peut se faire sans langage. Pensons à un chat… Il est très sensible aussi à la “catégorie” chien, mais il est en même temps très capable de distinctions fines, et, de loin, il distingue entre eux deux chiens loups très ressemblants l’un à l’autre, mais dont l’un le tolère tandis que l’autre le pourchasse impitoyablement. Les mots ne sont nullement nécessaires.

On peut traduire autrement l’expérience de Rumelhardt : le réseau a appris à associer avoir des plumes, des ailes et voler. Cette opération n’est nullement discursive, mais résulte, on l’a vu, des ressemblances dans l’organisation fonctionnelle des réseaux. Mais nous commençons à voir les rapports possibles entre la pensée non verbale et le langage. Étant donné la dépendance du langage par rapport à la pensée non verbale, il est tentant de voir dans cette organisation synaptique un “protosyllogisme” qui va permettre au module langagier d’exécuter le syllogisme proprement dit : tout ce qui est oiseau a des ailes or le moineau est un oiseau donc il a des ailes. Chez les aphasiques, la détérioration du module langagier doit laisser persister le concept non-verbal, y compris au niveau conscient mais inversement l’altération du concept non-verbal et du “protosyllogisme” ne devrait pas permettre l’élaboration du syllogisme. Les réflexions précédentes conduisent à supposer que le langage est la mise en forme, dans une intention de communication, et donc selon un code convenu, d’une pensée largement préformée. Mise en forme peut se dire formalisation en prenant ce terme dans un sens large. C’est le rôle de la zone du langage.

La conséquence très importante est que la référence du langage, c’est la pensée qui n’est pas sans rapport avec la réalité extérieure mais qui en est cependant bien différente. C’est elle que le langage tente de traduire et c’est elle que l’auditeur tente de s’approprier non sans d’inévitables déformations.

A noter qu'il n'est nullement exclu, dans ce schéma que le langage influe à son tour sur la pensée. C'est probablement tout particulièrement vrai des mathématiques.

La logique, plus particulièrement la logique formelle, constitue en effet un cas particulier car elle s’efforce de minimiser la part de la pensée sans langage au profit de ce langage qu’est la logique formelle. C’est pour traquer toute trace d’intuition que Hilbert avait donné comme programme la logicisation totale des mathématiques. In fine, la logicisation a bien pour effet de substituer une mécanique verbale aux intuitions non verbales. Dans une certaine mesure, c’est également le cas des mathématiques lorsque le calcul joue un rôle essentiel. Cet effort est payé de retour, comme l’on sait, puisque les mathématiques ont permis de décrire en physique quantique des expériences impossibles à rapporter dans le langage courant.

Même sous cette forme, la pensée sans langage continue à jouer un rôle car aucune organisation des opérations logiques ne peut avoir lieu sans elle. L’analyse des mécanismes de l’invention en mathématique 7 montre bien le caractère non verbal et non discursif de la réflexion des mathématiciens avant la vérification de leurs idées qui utilise nécessairement le calcul. Ainsi de Poincaré lorsqu’il écrit : “l'idée me vint, sans que rien dans mes pensées antérieures parût m'y avoir préparé, que les transformations dont je venais faire usage pour définir les fonctions fuschiennes étaient identiques à celles de la géométrie non-euclidienne. Je ne fis pas la vérification ; je n'en aurais pas eu le temps puisque, à peine assis dans l'omnibus, je repris la conversation commencée ; mais j'eus tout de suite une entière certitude”. Le point important, outre le caractère subit et non préparé est l’usage de l’analogie dont nous avons vu qu’elle était une particularité des réseaux, tout fait opposée à la démarche discursive de la logique formelle où toutes les étapes sont clairement exprimées.

7 Hadamard J. Essai sur la psychologie de l'invention dans le domaine mathématique Gauthier-Villars 1975

Page 235: Colloque Sur Science

Langage et mathématiques Il faut faire ici écho aux remarquables travaux qu’ont mené ensemble ou séparément une

équipe de l’INSERM menée par Stanis las Dehaene et une équipe de la Salpêtrière menée par Laurent Cohen . Sans entrer dans les détails quel que soit leur intérêt, elles ont montré tant chez les malades atteints d’acalculie que chez des sujets normaux que les calculs mettaient en jeu principalement deux voies : l’une est langagière et correspond surtout à la manipulation automatique des chiffres et sans aucun doute des formules de calcul, surtout celles apprises par cœur et une autre voie dite sémantique qui porte sur la signification des nombres. Ces deux voies sont anatomiquement distinctes et traçables notamment par IRM fonctionnelle. Dans les articles consacrés à ces observations, les auteurs ne concluent pas que la voie sémantique non verbale est directrice, mais ce que je vous ai dit le laisse supposer. En revanche Dehaene, dans son livre : "The number sense" l'affirme très clairement. Les expériences ne portent que sur des opérations relativement élémentaires et sur des calculs approximatifs, mais il y a sûrement lieu d’en étendre la portée aux problèmes complexes. Une des particularités du langage mathématique est de créer des objets qui ont comme tous les objets leurs spécificités. Le langage courant en crée aussi, comme par exemple la nature, ou , pour les athées : Dieu, mais les mathématiques en créent bien davantage. C’est leur existence qui permet de noter leurs ressemblances ou leurs différences. On devrait s’attendre à ce que de tels objets, une fois créés se trouvent manipulés en partie en dehors de la zone langagière. Un exemple relativement clair pour un non-mathématicien se trouve dans la représentation géométrique des nombres complexes. Quelle application faire de ces données au mode de pensée des physiciens qui nous a surtout occupés ?

La physique entre langage et pensée sans langage Pendant toute la période classique de la physique, en y incluant la théorie de la relativité, les

physiciens ont toujours compris ce qu’ils faisaient et les calculs qu’ils exécutaient. Par comprendre, je veux dire rattacher ces calculs à des notions qui leur restaient familières, autrement dit qui correspondaient ou du moins n’entraient pas en contradiction avec les données de leurs sens. Leurs calculs traduisaient véritablement leur pensée, leurs conceptions.

Nous allons retrouver maintenant notre point de départ : le tiraillement du physicien entre le formalisme et la compréhension. Il va de soi que je ne vais pas apporter des révélations à ce sujet car tous les philosophèmes à ce sujet ont déjà été émis. Mais il n’est peut-être pas sans intérêt que la neuropsychologie et la physiologie du cerveau donnent leur point de vue sur le débat, même s’il paraît un peu terre-à-terre ou justement parce qu’il est terre-à-terre.

Lorsqu’ils se sont trouvés confrontés avec la physique quantique, les physiciens ont dû rechercher un langage qui rendît compte de leurs observations mais qui ne correspondait plus à aucune vision naturelle du monde physique. Un exemple typique, fondateur même, est celui de Planck expliquant comment lui était venue l’idée des quanta: "C'était une hypothèse purement formelle et je ne lui ai réellement pas accordé beaucoup de réflexion autre que, quel qu'en fût le coût, je devais amener un résultat positif." En d’autres termes, Planck a été obligé d’inventer un langage qui rendît compte des faits observés même s’il n’en comprenait pas la signification et s’il n’envisageait même pas sérieusement, à cette époque, une discontinuité de l’énergie.

Mais le résultat est surprenant : les physiciens fonctionnent à deux niveaux : le niveau formel dans lequel ils se sentent à l’aise. Au contraire, dès qu’ils essaient de traduire ce langage, de comprendre ce qu’il veut dire, c'est-à-dire de le ramener au niveau de nos expériences ordinaires, ils perçoivent un monde si étrange qu’ils ne comprennent plus eux-mêmes exactement ce que cela veut

Page 236: Colloque Sur Science

dire. C’est que, pour faire cette traduction ils sont obligés de faire appel à des expériences non verbales qui sont elles aussi celles que nous fournissent nos cinq sens totalement inadaptés au monde quantique, pour les traduire dans nos mots de tous les jours. A remarquer que la validation du langage formel utilisé se trouve dans la possibilité de prédire à partir de lui des événements physiques. Rien ne prouve cependant que la description obtenue soit réellement la copie conforme de son objet. C’est ce doute qu’expriment les tenants d’une physique réaliste aujourd’hui minoritaires. Si un non-physicien se permettait d’avoir une opinion à ce sujet, ce serait pour dire qu’il est en fait peu probable que l’on puisse traduire ce monde quantique dans des termes qui ont nécessairement trait à notre monde macroscopique. Mais inversement, on n'a pas tort de souligner que ce n’est pas parce que le formalisme marche à peu près, et on peut ressentir le mode statistique comme un à peu près, qu’il décrit la réalité telle qu’elle est. Il n’en reste pas moins que nous avons là un modèle unique où le langage ne se réfère plus à la pensée non verbale, ne met plus en forme une pensée préverbale mais cherche à se référer directement au monde extérieur même si c’est sur le mode de la prédiction plutôt que sur celui de la description. En forçant le trait, on pourrait dire que le module linguistique est devenu autonome ! Je dis bien en forçant le trait car le physicien comprend bien à quelles règles de logique il obéit mais cela ne le renvoie plus à aucune représentation extérieure.

Les limites de la connaissance La façon de voir que je propose conduit à un certain scepticisme sur la valeur ontologique

des niveaux de réalité invoqués soit par M Nicolescu soit par Heisenberg. Tout d’abord il n’y a pas de choses objectivables indépendamment des processus de connaissance. Nos sens sont très adaptés à notre mode de vie en même temps qu’ils le conditionnent. Ils ne nous informent en rien sur le monde tel qu’il est. Le spectre des longueurs d’onde auxquels sont sensibles nos yeux et nos oreilles est étroitement délimité, chacune de nos entrées pour les cinq sens est filtrée. Varela insiste à juste titre sur le fait que le premier relais de la vo ie optique, le ganglion géniculé reçoit autant d’afférences du restant du cerveau que de la rétine. Le message venu de la rétine est transformé selon les besoins du cerveau. Les données de l’ouïe, du toucher, de la douleur ne sont pas moins filtrées que les données visuelles en fonction des besoins de notre cerveau (lui-même adapté à notre organisme). Autant dire que l’objectivité, au sens fort du terme n’est pas de mise. Rien n’est donc objectivable sans tenir compte du processus de connaissance. A partir de cette constatation, il existe un monde extérieur dont la description est possible dans les termes et selon le découpage que nos sens et la façon d’être de notre cerveau nous imposent. Dès que nous en sortons grâce à des moyens moins directement liés à nos sens, nous découvrons un monde étrange où l’énergie est discontinue, où règnent la non- localité et la non-séparabilité et dont nous ne pouvons exprimer les lois qu’en termes de statistiques. L’essentiel de ce qui nous est ainsi enseigné, c’est que le monde n’est pas comme il nous apparaît à travers nos sens et le cerveau qui va avec, si j’ose cette expression triviale. La neurophysiologie nous avertit à elle seule que le monde perçu est le monde de notre corps tel qu’il le voit et non tel qu’il est. Notre connaissance ne peut-être que relative. Elle ne peut-être qu’un point de vue.

Il reste fascinant qu’on ait pu trouver un langage utile à la description des expériences qui

nous ont révélé ce monde étrange. Ce langage est celui des grandeurs mesurables, celui des mathématiques qui paraît être le point commun à tous les mondes physiques. Il me semble possible d’en tirer une suggestion tirée de l’histoire des mathématiques. Ses débuts ont été extrêmement humbles, préoccupés uniquement de données pratiques pour les sociétés humaines : compter les quantités de nourriture, puis de monnaie, mesurer les surfaces agricoles, etc… Si nous examinons cette histoire, nos ne voyons aucune rupture entre ces racines pragmatiques élémentaires et les

Page 237: Colloque Sur Science

mathématiques éthérées. Pour le neurologue que je suis, il est bien évident que les mathématiques qui s'appliquent au monde macroscopique et au monde quantique appartiennent au monde du cerveau. Ce qu'il ressent, tant à partir de l'histoire des mathématiques qu'à partir des données de la psychologie cognitive et de la neuropsychologie, c'est que les mathématiques sont bien une invention de l'homme et de son cerveau et qu'ils n'existent nulle part ailleurs. Ce point de vue est très bien défendu par Dehaene dans le livre précité. Dans la possibilité de traduire en langage mathématique aussi bien le monde macroscopique que le monde physique, je vois pour ma part une manifestation de la continuité entre le monde quantique et notre monde physique aussi convaincante que la décohérence et pour moi beaucoup plus facile. Il n'empêche que cette superbe construction de l'esprit que sont les mathématiques ne sont qu'une construction de notre esprit et nous touchons ici d'une autre manière les limites de la connaissances abordées si magistralement par notre ami Hervé Zwirn. Nous restons en définitive prisonniers de ce que nous sommes. Le réel nous restera voilé.

La conscience

La grande absente de notre discussion est la conscience. La réalité qui nous est nous est donnée comme première et que nous oublions comme nous

oublions les lunettes que nous avons sur le nez, selon une expression de Wittgenstein, c’est celui de notre conscience. Son rapport avec le monde physique reste totalement mystérieux. Il est pourtant si évident que le titre choisi par Crick pour dire que la conscience résultait du fonctionnement cérébral : "l'hypothèse stupéfiante" est lui-même étonnant car ce n'est pas une hypothèse mais une constatation des plus banales. Ce qui ne l'est pas, c'est la nature de ce rapport.

Page 238: Colloque Sur Science

Débat.

Guy Lazorthes : Ma question concernera la limite qu'on peut donner à ce qu’on appelle langage. Naturellement, je pense aussitôt, comme vous, au langage gestuel chez l'homme, mais aussi chez les animaux. Savez-vous qu’on a maintenant quelques idées sur ce qu’on appelle le delphinois : le langage des dauphins. Vous avez deux bassins, dans le bassin de gauche vous apprenez à quatre ou cinq dauphins à passer dans des cerceaux, à jouer avec un ballon etc…. Une nuit se passe, durant laquelle on les entend jacasser, et le lendemain dans le deuxième bassin, à droite, on apprend les mêmes choses aux autres dauphins; mais ils apprennent beaucoup plus vite. On peut penser que pendant la nuit ils se sont parlés. C’est un peu élémentaire mais à partir de là, on a décrypté plusieurs sons et on est en train de bâtir le delphinois. Dominique Laplane : J'ai donné ma définition du langage comme l'utilisation de symboles articulés par une syntaxe. Le langage gestuel banal n'utilise que peu de symboles, beaucoup de désignation mais pas de syntaxe. Si vous parlez maintenant de la langue des signes, c'est un langage comme les autres. Des études linguistiques ont été faites. Il y a des aphasiques pour la langue des signes, on y retrouve les mêmes types de troubles que chez les aphasiques ordinaires. Guy Lazorthes : Et pour les sourds muets ? Dominique Laplane : Il n'y a aucun doute que la langue des signes est un des gros arguments que j'ai à opposer à mes adversaires quand on discute de la différence entre singes et hommes. On nous a dit que les singes n'ont pas de langage faute de larynx capable d'émettre des sons articulés mais s'il n'y avait que cela, ils auraient inventé le langage des signes. Or ils ne l'ont pas fait. Alors que toutes les communautés humaines de sourds et muets qu'on a pu recenser ont inventé leur langage des signes, chacun différent, bien entendu. Guy Lazorthes : Ce langage des signes est- il international ? Dominique Laplane : Non, justement, il n'est pas international. Le premier langage repéré était

celui de Paris, par l'abbé de l'Epée au 18ème siècle. Peu de temps après, les méthodes de cet abbé ont été exportées aux USA. On s'est aperçu qu'il y avait dans des îles, le long de la côte atlantique des USA, des communautés qui vivaient de façon très autarcique, qui se reproduisaient par conséquent de manière endogamique, dans lesquelles il y avait une très grande proportion de sourds et muets, si grande même que les entendants parlaient la même langue des signes que les sourds. Je crois que c'est de là qu'est né l'ASL, American Signal Language, qui est différent du langage signé en France ou en Chine. Le dernier qu'on ait découvert, à ma connaissance, c'est chez une population indienne du Sud Mexicain. Jean-François Lambert : Il a été rapporté le cas (j’ignore s’il en existe d’autres) de deux jeunes enfants abandonnés pendant la guerre et recueillis par une nourrice sourde, muette et débile qui les a seulement nourris. Cela s’est passé, je crois, au Danemark. On a retrouvé les enfants alors qu’ils avaient 9-10 ans et on a pu constater qu’ils avaient développé un langage qui n’était ni le danois (leur langue maternelle présumée), ni aucune autre langue connue mais qui, néanmoins, était une vraie langue avec une syntaxe et un vocabulaire assez étendu.

Page 239: Colloque Sur Science

Dominique Laplane : Il est extrêmement frappant qu'on puisse faire une analyse linguistique du langage des signes et que les aphasies de ce langage aient les mêmes caractéristiques que chez les gens parlant devenus aphasiques. Vous savez qu'il y a différentes variétés, il y a des formes qui sont plus agrammatiques, des formes qui sont plus avec des paraphasies, des gestes qui sont approximatifs. Pierre Perrier : Je rappelle qu'il existe beaucoup de langues de chasseurs qui sont des langues de gestes, il y en a chez les amérindiens, en Afrique, dans toutes les communautés de chasseurs qui sont amenés pour des raisons de discrétion vis-à-vis du gibier à communiquer par gestes. Les gens qui ont étudié ces communautés disent tous que le langage à la même structure que le langage parlé de la tribu correspondante, mais en plus, il est toujours mime du réel, c'est-à-dire qu'il essaie d'avoir le maximum de sens en faisant des mimes ou des métaphores. Le problème de la métaphore est assez intéressant puisque, quand il s'agit d'exprimer des choses compliquées, on reprend un geste plus classique mais dans un autre sens. Donc là, il y a bien une attribution de sens. Il y a deux niveaux : l'attribution de sens qui est dans le cas où on est en métaphore et le geste de mimisme qui rappelle tout à fait ce que vous avez dit sur les réseaux neuronaux, qui est une façon d'avoir en commun une approximation rapide d'images, de gestes puisque je pense que dans le cerveau on est plus sensible à ce qui est global et qui bouge qu'à ce qui est immobile. Tous ces éléments gestuels ont une structure commune parce que le geste de formation du signifiant est plus important que la partie orale structurée : la pensée n'a pas besoin d'être exprimée de façon langagière. Basarab Nicolescu : Je dois vous dire que je suis dans une résonance quasiment totale avec tout ce que vous avez dit. Je n'ai qu'une seule question, une suggestion peut-être. Est-ce que ce ne serait pas utile d'affiner cette notion de pensée sans langage en introduisant trois niveaux différents : une pensée conceptuelle sans langage, une pensée émotionnelle sans langage, une pensée motrice sans langage. Comment appliquez-vous cette notion de pensée sans langage à la pensée émotionnelle ? Vous avez pris des cas pathologiques dans vos exemples, mais ce qui m’intéresse ces sont les cas de normalité car cela doit agir dans les cas tout à fait normaux, je veux dire de notre vie courante : je pense à la valeur cognitive de la pensée émotionnelle, sans langage, sans mots, sans concepts communicables, discursifs. Dominique Laplane : Vous avez raison d'insister sur la pensée émotionnelle, sur l’affectivité. Je l’ai mentionnée simplement en passant - au début - en disant que j’incluais dans la pensée sans langage toute la vie mentale y compris, bien entendu, la pensée émotionnelle. Évidemment, je me suis basé sur les modèles que j’ai à ma disposition, or beaucoup sont des modèles pathologiques. La neuropsychologie est l’étude de modèles pathologiques pour essayer d’en tirer quelques conclusions qui permettent de cerner un grand nombre de problèmes. Jusqu’à présent, l’IRM ne nous a que peu appris sur la localisation du langage : quelques détails, par exemple sur la localisation un peu différente des deux langages d'un bilingue. Cela pour dire que la neuropsychologie travaillant à partir de certains cas pathologiques a fourni bien des éléments intéressants. Or quand on pénètre dans le domaine émotionnel, la pathologie devient essentiellement psychiatrique et dans ce domaine les données lésionnelles sont fragmentaires. Il y a des régions cérébrales dont les lésions ou la stimulation entraînent des troubles de l’affectivité. Toutefois nous ne sommes plus à l'ère de la phrénologie et la question des localisations doit être abordée ici comme ailleurs avec souplesse. Il s’agirait, disons, d’un réseau de régions participant à la réalisation de l'affectivité. Mais encore une fois nos connaissances sont ici beaucoup plus embryonnaires que dans le domaine cognitif. Il reste évident que les zones cérébrales d'élaboration de l'affectivité sont totalement distinctes des zones du langage. En contrepartie, il ne faut pas oublier que le cerveau fonctionne comme un tout. Un point tout à fait évident et qui n'échappe pas à certains philosophes, c'est le rôle de l'affectivité dans la vie cognitive. L'expression la plus simple de ceci consiste à faire remarquer que le logicien

Page 240: Colloque Sur Science

(je prends le logicien parce que c'est lui qui travaille dans le domaine qui paraît le moins affectif qui soit), ferait autre chose s'il n'y trouvait pas d'intérêt. Il faut qu'il y ait une motivation et la motivation repose au moins en partie sur des bases affectives. Pour la pensée motrice, c'est une question de définition. Mais il ne faut pas faire un gros effort pour voir la continuité: la motricité organisée ne se passe pas non plus sans qu'il y ait une motivation. Bernard d'Espagnat : Vous nous avez montré que la pensée et le langage ne sont pas la même chose, mais les exemples que vous nous avez donnés me semblent indiquer qu'il existe un langage sans pensée plutôt qu'une pensée sans langage. Vous nous avez rappelé par exemple qu'en physique quantique, où il n'y a plus de représentation vraiment qui marche, le langage permet de faire des prédictions d'observations. Et cela, peut-on dire, sans qu'il y ait pensée derrière, car la pensée voudrait qu'on se représente des choses et l’on n'arrive pas à se les représenter de façon cohérente. Donc, c'est là un exemple qui semble montrer qu'il existe un langage sans pensée, plutôt que le contraire. Dominique Laplane : Effectivement je suis passé très vite sur la démonstration de la pensée sans langage faute de temps, mais c'est sur elle que j'insiste face à d'autres publics. Elle se fonde sur des données concernant les aphasiques, les animaux, les enfants sans langage, les sourds-muets non éduqués et peut-être surtout la pensée de l'hémisphère droit déconnecté du gauche. On néglige trop aussi les expériences plus banales que sont la compréhension en situation de formules elliptiques, celle des figures de rhétorique, la traduction qui ne peut être littérale, etc. On a aussi des exemples inverses c'est-à-dire de la détérioration de la pensée sans la détérioration du langage: les délires et les perturbations de la pensée par lésions frontales, soit dans le domaine logique (travaux de Luria) soit dans le domaine affectif, et aussi les troubles reconnus depuis quelques années sous le nom d'asémanties qui se rencontrent dans les maladies d'Alzeimer où le vocabulaire est conservé mais n'a plus de correspondance. Mais il y a tout un lot de faits concernant l'existence d'une pensée sans langage. Je ne pense pas que le formalisme du physicien soit à proprement parler un langage sans pensée, car le physicien perçoit parfaitement la logique de son discours, mais cette logique est là pour traduire directement des expériences surprenantes parce qu'elles ne correspondent plus du tout aux représentations du monde que le physicien tire de ses expériences sensorielles communes. Basarab Nicolescu : Dans l'exemple de Luria, il s’agit de pensée sans langage. Dominique Laplane : Il démontre que quand des lésions frappent certaines régions qui ne sont pas du tout responsables de perturbations du langage - puisque le langage fonctionne normalement - le langage est totalement incapable d'arriver à une performance pour lequel il est fait. La pensée est profondément perturbée. Le délire aussi est, pour moi, très convaincant, pourtant personne n'en parle, alors que c'est l'exemple le plus commun. Hervé Zwirn : Tous ces exemples montrent qu'il y a une indépendance entre la pensée et le langage. Il peut y avoir des pensées sans langage, des langages sans pensées et l'association étroite des deux que l'on faisait avant n'est pas si évidente. Dominique Laplane : C'est-à-dire qu'elle n'est pas si étroite que l'on disait, mais le cerveau fonctionne normalement comme une unité. Par conséquent, le tort des philosophes ou des linguistes, si je puis m'exprimer ainsi, c'est de s'être mis la tête dans les mains en disant : j'ai plein de mots dans la tête, et par conséquent, il n'y a pas de pensée sans langage. Ce n'est pas la bonne façon d'aborder la question. En revanche, considérer que le langage traduit une pensée déjà largement préformée à des conséquences considérables, en particulier quand vous considérez la sémantique. La sémantique linguistique est le fiasco le plus extraordinaire qui soit : plus de 30 ans

Page 241: Colloque Sur Science

de travail pour essayer de comprendre comment fonctionne le langage sans aboutir à rien parce qu'on essaye de traduire le langage commun en langage plus abstrait. La réalité est, naturellement, exactement l'inverse, comme le démonte cette remarque banale que l'extension du champ sémantique et la rigueur sont opposées l'une à l'autre. Vous ne pouvez pas avoir un langage parfait. Toujours la pensée déborde le langage sauf, encore une fois, dans les raisonnements logiques abstraits, dont le but même est de ne pas dépendre de "l'intuition", c'est-à-dire de la pensée sans langage. Tout se passe bien tant que ce langage logique reste totalement abstrait, comme dans les mathématiques pures, ou sous contrôle de l'expérience, comme en physique. C'est lorsque l’on se passe des vérifications qu'on entre dans la science-fiction, sans même y prendre garde, en imaginant par exemple des mondes multiples, ou dans des philosophies abstraites et absconses.

Page 242: Colloque Sur Science

Addendum

A son manuscrit M. Laplane a joint une note demandant que celui-ci soit communiqué à M.

Nicolescu pour un éventuel commentaire relatif aux passages le concernant. Cela a été fait et nous avons reçu la réponse suivante de M.Nicolescu. Basarab Nicolescu Je me sens pleinement en accord avec beaucoup de points de vue exprimés par M. Laplane et la lecture de mon livre Nous, la particule et le monde1pourrait facilement convaincre M.Laplane qu’il ne s’agit pas de simples propos de courtoisie. Nous sommes tous d’accord que “ l’objectivité au sens fort du terme n’est pas de mise ”. Je n’ai jamais dit que les niveaux de Réalité sont “ objectivables indépendamment des processus de connaissance ”. D’ailleurs, pour des raisons précises, le mot “ objectivable ” ne fait pas partie de mon vocabulaire. Si nous sommes apparemment d’accord, où notre désaccord se trouve-t-il ? C’est à cette question difficile que je tenterai de répondre. Tout d’abord, M.Laplane écrit : “ Dans la possibilité de traduire en langage mathématique aussi bien le monde macroscopique que le monde physique je vois pour ma part une manifestation de la continuité entre le monde quantique et notre monde physique… ”. Tout le problème est de comprendre ce que les mots “ aussi bien ” veulent dire. D’ailleurs, pourquoi “ le monde quantique ” n’est- il pas aussi notre “ monde physique ” ? En fait, les langages mathématiques de la théorie de la relativité et de la mécanique quantique ne sont pas, tout au moins pour l’instant, conciliables. Il y a une évidente discontinuité entre les deux langages et c’est là le défi majeur de la physique contemporaine. La théorie des cordes tente de trouver la solution mais elle n’a pas encore abouti. Et même si elle aboutit un jour, elle ne décrira pas un passage continu d’un monde à l’autre : elle intègrera, par construction, la discontinuité entre ces deux mondes. C’est cette discontinuité qui est intégrée à la nouvelle vision de la Nature, fondée sur la notion de “ niveaux de Réalité ”. M.Laplane écrit : “ les physiciens ont dû rechercher un langage qui rendît compte de leurs observations mais qui ne correspondait plus à aucune vision naturelle du monde physique ”. Sur ce point je voudrais simplement faire remarquer combien serait contestable l’idée d’une unicité de la vision naturelle. Les historiens des sciences s’accordent à dire que, malgré les apparences, il n’y a pas une seule et même nature à travers les temps. Que peut- il y avoir en commun entre la Nature de l’homme primitif, la Nature des Grecs, la Nature de l’époque de Galilée, du Marquis de Sade, de Laplace ou de Novalis ? Rien, en dehors de l’homme lui-même. La vision de la Nature à une époque donnée dépend de l’imaginaire prédominant à cette époque qui, à son tour, dépend d’une multitude de paramètres : le degré de développement des sciences et des techniques, l’organisation sociale, l’art, la religion, etc. Une fois formée l’image de la Nature agit sur tous les domaines de la connaissance. Le passage d’une vision à une autre n’est pas progressif, continu – il s’opère plutôt par des ruptures brusques, radicales, discontinues. Plusieurs visions contradictoires peuvent même coexister. L’extraordinaire diversité des visions de la Nature explique pourquoi on ne peut pas parler de la Nature, mais seulement d’une certaine nature, en accord avec l’imaginaire de l’époque considérée. Mais tentons d’aller plus loin. Le problème Sujet-Objet a été au centre de la réflexion philosophique des pères fondateurs de la mécanique quantique. Pauli, Heisenberg, Bohr, tout comme Husserl, Heidegger et Cassirer, ont réfuté l’axiome fondamental de la métaphysique moderne : la séparation totale entre le Sujet et l’Objet. Mes considérations sur les niveaux de Réalité sont inscrites dans le

1 2e édition : Editions du Rocher, Collection “ Transdisciplinarité ”, Monaco 2002.

Page 243: Colloque Sur Science

même cadre de pensée. Or s’il n’y a pas de coupure comment peut-on encore utiliser le mot “ objectivité ” ? Peut-être l’apparent désaccord provient-il d’un glissement terminologique entre les mots “ réel ” et “ réalité ”. Bien entendu, nous devons dis tinguer Réel et Réalité. Le Réel signifie ce qui est, tandis que la réalité est reliée à la résistance dans notre expérience humaine. Par définition, on ne peut rien dire sur le Réel, sauf qu’il est. Le réel est, par définition, voilé pour toujours, tandis que la Réalité est accessible à notre connaissance. Le modèle de la connaissance, fondé sur l’interaction entre le Sujet et l’Objet, permet d’établir un pont entre le Réel et la Réalité, mais ce pont, tout en étant rationnel, échappe à toute rationalisation. Il est du domaine du silence, de l’expérience intérieure. Dans ce sens, il y a certainement une valeur ontologique des niveaux de Réalité même s’ils ne sont pas “ objectivables ”. Nous rejoignons ainsi la pensée sans langage, chère à M. Laplane, mais sous un angle quelque peu inattendu.

Page 244: Colloque Sur Science

9 "Connais-toi toi-même"

Actualité de l'injonction de Socrate

Guy Lazorthes

L'injonction de Socrate était en son temps justifiée car de tout événement heureux ou malheureux, un dieu était alors responsable ; la mythologie 1 régnait. Les hommes oubliaient de se mettre en cause. Justifiée, elle le fut encore pendant les siècles au cours desquels les vérités et les règles de conduite étaient dictées par les seuls textes sacrés.

L'incitation à s'interroger sur soi-même ne s'impose pas moins aux temps modernes. Les

fanatismes religieux persistent, et de plus les esprits accaparés par la Science et par la Technologie négligent la réflexion sur la condition humaine.

I - Socrate

Sur le fronton du temple de Delphes consacré a Apollon était inscrit : "Connais-toi toi-même, laisse le monde aux Dieux", formule contradictoire puisqu'elle signifiait d'une part qu'il fallait penser à se connaître... et, d'autre part, que tout était décidé par les Dieux. Les prêtres du Temple répondaient d'ailleurs a ceux qui venaient les consulter, qu'il fallait satisfaire les Dieux. Socrate ne retint que "Connais-toi toi-même" et fit figure de contestataire.

Au VIe siècle avant J.C., la pensée grecque avait ajouté aux rites mythologiques l'observation des phénomènes de la nature. Des philosophes appelés souvent "présocratiques" ou "philosophes de la Nature" ne rendaient pas les dieux responsables des changements perpétuels de la nature, et se libéraient peu à peu des mythes. Quelques idées géniales furent formulées et seulement démontrées par la science vingt siècles plus tard. Thalès de Milet pensa que notre monde était à l'origine de toute chose, de toute vie. Anaximandre avança que notre monde est un parmi d'autres ! Héraclite (540-480) déclara que tout s'écoule, tout est en mouvement, tout se transforme : "nous ne nous baignons pas dans le même fleuve".

Socrate (470-399) n'a pas écrit une ligne ; on ajoute souvent :"comme Jésus". L'absence

d'ouvrages sert son prestige. Nous le connaissons grâce à Platon, son disciple de quarante-deux ans plus jeune. Pour lui, "Connais-toi toi-même" signifiait qu'il faut atteindre la connaissance et la maîtrise de soi et s'affranchir des spéculations idéologiques et des explications théologiques. Il eut le sent iment de la complexité profonde de l'homme. On a souvent fait de lui le "père" de la philosophie et "le fondateur" de la science morale. Je dirais volontiers "Connais l'homme pour mieux te connaître". J'ajoute qu'il est aussi le fondateur des Sciences Humaines. 1 - La connaissance de soi Elle éclaire tout homme sur ce qu'il est et ce qu'il peut ; elle le sauve des illusions souvent funestes qu'il se fait sur lui-même. "N'est-il pas évident, cher Xénophon, dit Socrate, que les hommes ne sont jamais plus heureux que lorsqu'ils se connaissent eux-mêmes, ni plus malheureux que lorsqu'ils se 1 Mythe : du grec qui signifie "parole"

Page 245: Colloque Sur Science

trompent sur leur propre compte ?" En effet, ceux qui se connaissent sont instruits de ce qui leur convient et distinguent les choses dont ils sont capables ou non. Ils se bornent à parler de ce qu'ils savent, cherchent a acquérir ce qui leur manque et s'abstiennent complètement de ce qui est au-dessus de leurs capacités ; ils évitent ainsi les erreurs et les fautes. Ceux qui ne se connaissent pas et se trompent sur eux-mêmes sont dans la même ignorance par rapport aux autres hommes et aux choses humaines en général. La connaissance de soi est la science première. "Connais-toi toi-même" veut dire : renonce à chercher hors de toi, à apprendre par des moyens extérieurs ce que tu es réellement et ce qu'il te convient de faire ; reviens à toi, non pas certes pour te complaire en tes opinions, mais pour découvrir en toi ce qu'il y a de constant et qui appartient a la nature humaine en général, Conception d'une extrême importance car elle proclame qu'en tout esprit humain existe la science, qui intéresse I'Homme et qui n'a besoin que d'être extraite. Le maître n'est plus qu'un auxiliaire qui assiste les esprits pour les aider à émettre leurs idées. et à examiner si elles sont viables ; il ne saurait prétendre enfanter le vrai à leur place. 2 - La conscience de son ignorance. "Connais-toi toi-même" signifie aussi s'interroger sur son savoir. Se connaître est prendre conscience de soi et par là de son ignorance. Socrate déclarait "Je ne sais qu'une chose, c'est que je ne sais rien". Il ne niait pas l'existence de la vérité. La vérité existe même s'il ne la connaît pas ; il vaut mieux une ignorance qui se connaît qu'une ignorance qui s'ignore. La Pythie aurait déclaré : "est le plus savant celui qui, comme Socrate, sait que son savoir est en fin de compte nul". Socrate découvrit qu'il avait au moins une science, celle de son ignorance. Il vénérait les dieux tout en avouant son ignorance à leur égard. Cet aphorisme, loin de prouver son scepticisme, témoigne de son désir de vérité. Platon appellera "double ignorance" le fait de ne pas savoir et de vivre dans I'illusion de son savoir, c'est-à-dire ne pas avoir conscience de son ignorance, La "double ignorance" est grave, malfaisante, si elle est le fait de personnes importantes. "Non seulement tu ignores les choses les plus importantes, mais tu crois les savoir" disait, d'après Platon, Socrate à Alcibiade. 3 - L'objectif moral Socrate n'a jamais voulu dire : "analyse-toi avec complaisance". La connaissance de soi n'implique pas le repliement sur soi, plaisir que prennent les auteurs "d'autobiographies intimes", mais signifie : "Connais le meilleur de toi, vois ce que tu aspires à être, ce que tu es virtuellement, ce qui est ton modèle ; sois un homme, connais tes propres excès". Ce n'est donc pas une introspection narcissique et égotiste : c'est un programme de vie morale.

La connaissance de soi-même n'est pas seulement une spéculation théorique, simple savoir, elle a des applications. Chaque homme doit se découvrir lui-même, prendre conscience de ses idées, de ses capacités, pour ensuite en faire I'examen critique et voir si sa pensée s'accorde ou non avec son action et inversement. D'après Aristote la démarche prioritaire de Socrate fut de définir les vertus, d'en saisir I'universel et à partir de là de rendre les hommes vertueux.

Connaître la vertu est la condition nécessaire. Quand on succombe au mal, c'est qu'on ne le

connaît pas, sinon, comment pourrait-on le désirer puisqu'il rend malheureux ? La vertu n'est pas toujours accompagnée de bonheur, mais il est évident que le mal, le vice, qui si souvent satisfont nos désirs de jouissance, entraînent le malheur. Une des grandeurs de la pensée de Socrate fut de ne pas accepter I'opposition du bonheur et de la vertu ; pour les accorder, il fit référence aux maximes

Page 246: Colloque Sur Science

de sagesse qui identifiaient la bonne action avec les satisfactions ou les avantages qu'elle procure. II proclama que le bonheur complet ne peut être obtenu que par la vertu. Ce principe a paru indiscutable à toutes les morales. La discussion ne saurait porter que sur les moyens d'atteindre cette fin par une volonté déterminée.

4 - La vertu du dialogue Pour découvrir ce que réellement sont les hommes, il convient de partir de l'opinion qu'ils ont d'eux-mêmes. Le moraliste doit donc les interroger sur ce qu'ils croient être, les conduire à découvrir ce qu'ils sont, et dénoncer leur fausse sécurité. L'investigation s'instaure par le dialogue. Socrate allait des uns aux autres et interrogeait non sur les idées mais sur le vécu quotidien. A un militaire il demandait "Qu'est-ce que le courage". A un prêtre "Qu'est-ce que la charité" ? Par cette épreuve, il faisait reconnaître a chacun son ignorance et faisait passer de l'autosatisfaction à I'inquiétude. En allant par les rues, il n'avait pas d'autre but que de persuader qu'il ne faut pas donner de l'importance au corps et aux richesses, qu'il faut s'occuper du perfectionnement et de la vertu. II comparait la pratique philosophique à la maïeutique (art de faire accoucher). Sa mère était sage-femme. II faisait accoucher les esprits. Personne n'y échappait… Dans ces relations, se manifestait son ironie, sa raillerie familière : de l'individu courageux on remonte au concept de courage, et sachant ce qu'est le "vrai" courage, on peut apprécier comment il se manifeste chez I'individu interrogé..

Ce qui vient d'être accompli sur l'un est valable pour l'autre. Derrière la diversité des cas, il y a une identité de nature qui dépasse les particularités de chacun. En dégageant l'élément commun, l'on remonte à la proposition générale que I'on peut appliquer à d'autres.

Socrate interroge Euthydème et obtient de lui l'aveu qu'il aspire à commander et que, pour exercer le commandement, la justice est indispensable. "Qu'est-ce donc que la justice ?" "L'homme injuste, répond Euthydème, est celui qui ment, qui trompe". Mais, observe Socrate, lorsque l'on a affaire à des ennemis, il y a des cas dans lesquels il est permis de mentir, de tromper. Les mensonges ne sont injustes que lorsqu'ils atteignent des amis et, là encore, il y a des cas où, même envers des amis, ils sont permis : Un général peut donner du courage à son armée par un mensonge ? Un père peut user de supercherie pour faire prendre un remède à son enfant ?

Disons donc : l'homme injuste est celui qui ment a ses amis

Ainsi le procédé inductif de Socrate consistait à dégager un caractère commun et général d'un certain nombre de cas particuliers.

On ne pardonna pas à Socrate son action réformatrice. On l'accusa d'introduire la critique

dans l'esprit de ses contemporains, de mépriser la religion d'Etat, de faire appel à un autre dieu : "la raison"… et de corrompre la jeunesse. Son attitude et son plaidoyer au long procès firent figure de provocation. II déclara entendre une voix intérieure. Le "démon" de Socrate a suscité dès l'Antiquité une littérature. Georges Bastide2 a consacré plusieurs pages à la satisfaction qu'il éprouvait à obéir a cette voix. Socrate s'immola afin de dénoncer plus efficacement, par sa mort, 1'injustice de la cité. II accepta, très lucide, la condamnation du Tribunal démocratique d'Athènes et but le poison : la ciguë (en 399). Avant de boire il fit l'éloge de la mort qui délivre l'âme.

Platon, disciple de Socrate, donna à ce suicide forcé une dimension légendaire. II déclara "on a tué l'homme le plus juste et le plus sage de notre temps". Disciple fidèle, il inscrivit dans 2 G. Bastide : Le moment historique de Socrate, Alcan, 1939

Page 247: Colloque Sur Science

"Phèdre" : "il est risible de s'occuper d'autre chose quand on s'ignore soi-même". "II ne mène pas la vie d'homme qui ne s'interroge pas sur lui-même" (Apol. 1,28). D'après Cicéron 3 "Socrate le premier a fait descendre la philosophie du ciel sur terre, I'introduisit non seulement dans les villes, mais jusque dans les maisons, et l'amena à régler la vie, les mœurs, les biens et les maux".

Philosopher à Athènes n'était pas de tout repos. Protagoras, qui avait écrit: "Pour ce qui est

des dieux, je n'ai aucune possibilité de savoir s'ils existent, ni s'ils n'existent pas", fut condamné comme Socrate, mais il évita de boire la ciguë en s'enfuyant de Grèce. Xénophon fut condamné à l'exil. Platon fut menacé de mort et vendu au marché aux esclaves. Racheté par ses admirateurs, il revint à Athènes, fonda l'Académie et fit de la politique.

Il est admis que ces penseurs furent poursuivis non pour leurs idées philosophiques, mais pour des raisons politiques. Jacqueline de Romilly souligne pourtant qu'aucun d'eux ne contestait le principe d'obéissance aux lois de la cité.

II - Après Socrate Coïncidence : aux Ve et IVe siècles av. J.C., aussi bien en Orient qu'en Occident, de grands

esprits incitèrent les hommes à maîtriser leur pensée et leur activité et à ne plus être motivés par les seules croyances religieuses.

- En Orient, ce fut le temps de grandes spiritualités philosophiques : Taoïsme,

Confucianisme en Chine, Bouddhisme en Inde sont empreints du même souci de la dignité humaine.

- Lao-Tseu, créateur du Taoïsme4, aurait été le maître de Confucius (551-479 av. J.C.). Ils vantèrent les valeurs morales telles que piété filiale, loyauté, justice, comportement vis-à-vis des femmes et des personnes âgées.

- Gautama (560-480 av. J. C.) surnommé "Bouddha" (l'illuminé) enseigna à dominer les passions, les désirs, les plaisirs sexuels, et à être motivé par la compassion et le service à rendre à autrui. L'une de ses déclarations est très socratique :

Par soi-même, en vérité, on fait le mal. Par soi-même, on est souillé. Par soi-même, on évite le mal. Par soi-même, en vérité, on est purifié. Pureté et impureté sont personnelles, nul ne peut purifier autrui.

En Occident, à la différence de l'Orient, les grandes Idées grecques inspirèrent au cours des siècles de nombreuses œuvres qui cherchent à approcher au plus près la vérité sur Dieu, sur le monde et sur les hommes. Les Monothéismes ont suscité les fanatismes. A Athènes d'abord, se rencontrèrent non seulement des philosophes : Socrate, Platon, Aristote mais aussi des tragédiens, des artistes, des historiens, des savants : Démocrite, père de l'atome, Hippocrate, père de la médecine. Ils inscrivaient dans les esprits que les mythes relèvent de la

3 Cicéron : Tusculanes, V, 10 4 Tao signifie en chinois "chemin" ou "voie".

Page 248: Colloque Sur Science

pure imagination et non de la raison. L'originalité était non seulement de reconnaître les faits, mais de rechercher leurs causes. Plusieurs doctrines philosophiques eurent en commun malgré leurs divergences d'inciter les hommes à maîtriser leur corps par concentration de pensée : 1. Les cyniques se déclaraient indépendants de la Société et furent parfois grossiers et

agressifs. Diogène vivait dans un tonneau. Plaute formula homo homini lupus. 2. L'épicurisme. Epicure pensait qu'il faut éviter la souffrance et que le plaisir est le bien

suprême. 3. Le stoïcisme développa la volonté de résignation et de modestie. Sénèque (4-65 ap. J.-C.), dans son traité sur "la colère" vanta les bienfaits de l'examen de conscience : quelle mauvaise action, quelle bonne action, ai-je fait aujourd'hui ? Il dut se suicider en 65 sur ordre de son ancien élève Néron. Epictète (50-125), esclave affranchi, déclara que la maîtrise de soi faite du contrôle de ses passions (modération, tempérance) est la voie la plus sûre vers le bonheur. Marc Aurèle (120-180), empereur philosophe, fut un modèle, car désireux d'atteindre la sagesse, il pratiqua l'écriture de soi dans ses "Pensées pour soi-même". . On y relève une vision géniale de l'Univers dont alors on ne savait rien." La terre n'est qu'un point et la partie habitée n'en est qu'un recoin". La conception stoïcienne de la sagesse ressurgit avec Montaigne et Descartes et a survécu jusqu'à nos jours. Le polythéisme régressa. Le Judéo-Christianisme se développa. Il attribuait un rôle capital à l'examen de conscience ; il allait dans le sens de la prescription de Socrate. Il introduisait la notion de personne et luttait contre l'esclavage. Les esclaves furent attirés les premiers par le Christianisme qui leur attribuait une égalité non seulement de statut mais aussi de salut. Jésus-Christ a dit : "Le royaume de Dieu est au-dedans de vous". L'apôtre Paul, dans son "L'épître aux Ephésiens", définit l'homme normal comme un homme intérieur qui s'appréhende lui-même.

La pensée chrétienne prit le relais de la philosophie grecque.

Saint-Augustin (334-430) 5 , jeune homme paresseux, débauché, connut de nombreux

courants religieux et philosophiques avant de se convertir au Chr istianisme. II devint évêque et fondateur d'un ordre monastique. II a écrit : "Les hommes sont éperdus d'admiration au spectacle des grandes montagnes, des puissantes vagues des mers ou de l'infini étoile du firmament, mais ils ne pensent jamais à contempler les merveilles qu'ils ont en eux". En rentrant en lui-même, Saint-Augustin entendait "la voix d'en haut" ; en pénétrant dans "ce sanctuaire d'une ampleur infinie, dont nul ne peut toucher le fond", il découvrit en lui Dieu "plus intérieur que ma propre intimité" (Livre III des Confessions). Le langage de l'intériorité est exprimé par la célèbre formule de De Vera Religione6 : "au lieu d'aller dehors, rentre en toi-même. C'est dans l'homme intérieur qu'habite la vérité".

De Platon à Freud, les écrivains qui, par le regard intérieur, se sont interrogés sur eux-

mêmes et ont raconté leur histoire, ou des fragments de leur histoire, dans des journaux intimes ou dans des romans, sont nombreux. Certes, on peut dire : “ c'est souvent la même idée, les mêmes pensées, les mêmes phrases, c'est du plagiat ... ”. "Non, dit Paul Valéry, rien de plus original, rien

5 Saint-Augustin : Les Confessions. Chapt X, 397 6 Saint-Augustin : De Vera Religione (de la vraie religion), liv XXXIX

Page 249: Colloque Sur Science

de plus "soi" que de se nourrir des autres ... Mais il faut les digérer. Le Lion est fait de moutons assimilés". Aux XVe et XVIe siècles, la personne humaine fut valorisée par les humanistes ; La connaissance de soi fit de l'homme un être libre, maître de son Royaume au sens où Ronsard (1524-1585) l'écrivait en 1561 :

Le vray commencement pour en vertu accroître C'est (disait Apollon) soy-même se cognoitre Celui qui se cognoit est seul maistre de soy Et sans avoir royaume, il est vraiment un roy

était sa devise ; elle se rapproche de Socrate lorsqu'il disait "Ce que je sais le 7mieux c'est que je ne sais rien".

Au XVlle siècle, la philosophie et la science devaient se situer par rapport a la religion, ce qui explique les comportements réservés de Galilée, Kepler, Descartes, Pascal, Spinoza…

R.Descartes (1596-1650) a écrit 8 : "J'estime ... que tous ceux à qui Dieu a donné l'usage de la raison sont obligés de I'employer principalement pour tâcher de le connaître et de se connaître eux-mêmes..." Au début de sa "Méditation Troisième", il présente une méthode de concentration : " Je fermerai maintenant les yeux, je boucherai mes oreilles, je détournerai tous mes sens, j'effacerai même de ma pensée toutes les images des choses corporelles ... Ainsi m'entretenant seulement moi-même et considérant mon intérieur, je chercherai de me rendre peu a peu plus connu et plus familier à moi-même". Dans le "Je pense donc je suis", il y a deux choses. La première est que l'homme a le droit de penser par lui-même sans être influencé ; la seconde est que l'homme "est" parce qu'il pense (cogito ergo sum). Selon lui encore, l'homme grâce à la connaissance de lui-même devient son propre médecin... ce qui est de quelque vérité car la volonté, la confiance, le moral interviennent dans toutes les maladies surtout dans les légers troubles mentaux. II y a dans l'observation de soi-même l'avantage de connaître ce qui convient à son état physique et mental et ce qui, au contraire, lui est nuisible.

B. Pascal (1623-1662), dans le même objectif, a exprimé son étonnement et son

incompréhension : "Quelle chimère est-ce donc l'homme ... Quel sujet de contradiction. Quel prodige ! Juge de toutes choses, imbécile ver de terre, dépositaire du vrai cloaque d'incertitude et d'erreur, gloire et rebut de l'univers". Perdu dans "le silence éternel des espaces infinis" qui "l'effraie", "il ne peut arriver à se comprendre".

Malgré sa santé précaire, Pascal ne se ménagea pas, il se châtiait même par haine de soi dans ses dernières années et ne tira jamais vanité de ses dons exceptionnels. Quand il évoque Montaigne, il dit "le sot projet qu'il a eu de se peindre".

- Au XVIIIème siècle, le jeu philosophique s'attacha a comprendre l'Homme qui, de plus en

plus, a conscience de ses capacités, de son pouvoir et de ses responsabilités. Pour John Locke et David Hume en Angleterre, pour Montesquieu, Voltaire, Diderot et Rousseau en France, l'Homme avide de savoirs doit être libre et autonome. Bien que non matérialistes, ils considèrent que les religions sont facteurs d'obscurantisme et freins à la connaissance de l'homme.

8 R. Descartes : Lettre à Mersenne. 15 avril 1630

Page 250: Colloque Sur Science

Emmanuel Kant (1724-1804) adopte l'exigence socratique "Connais-toi toi-même": On ne peut pas dans la recherche de l'Homme sur lui-même ne pas s'enquérir de ce qu'est l'Homme. Il formula des impératifs catégoriques : "Agis toujours comme si la maxime de ton action devait être érigée par la volonté en loi universelle de la nature". "Agis de telle sorte que tu traites l'humanité aussi bien dans ta personne que dans la personne de tout autre" (Fondements de la métaphysique des moeurs).

Les "Confessions" de Jean-Jacques Rousseau (1712-1778) sont exemplaires du genre

littéraire "récit de vie autobiographique" qui émergea au XVIIIe siècle. II avoue avec complaisance ses péchés, mais derrière l'apparente sincérité est une sorte de disculpation. Cette mise en scène de soi se retrouve dans Les rêveries du promeneur solitaire. "Tout ce qui m'est extérieur m'est étranger désormais. Je n'ai plus en ce monde ni prochain, ni semblables, ni frères. ... Je ne peux jeter les yeux sur ce qui m'estime sans y trouver toujours quelque sujet de dédain qui m'indigne, ou de douleur qui m'afflige ... Je ne trouve qu'en moi la consolation, l'espérance et la paix, je ne dois, ni ne veux plus que m'occuper que de moi ... Je consacre mes derniers jours a m'étudier moi-même ... Si à force de réfléchir sur mes dispositions intérieures, je parviens à les mettre en meilleur ordre et à corriger le mal qui peut y rester, mes méditations ne seront pas entièrement inutiles et bien que je ne sois plus bon à rien sur la terre, je n'aurais pas tout a fait perdu mes derniers jours ..." ; et, deux pages plus loin : "Je fais la même entreprise que Montaigne mais avec un but tout contraire au sien : car il n'écrivait ses Essais que pour les autres et je n'écris mes rêveries que pour moi".

Johann Wolfgang von Goethe (1748-1832), poète, romancier, naturaliste, peintre, homme d'état, multiple, ne vécut que pour devenir un seul. Entre le Werther publié à vingt-quatre ans, et Le second Faust auquel il met encore la main à la veille de sa mort, on découvre plusieurs êtres successifs. Dans son autobiographie poète et vérité, avec le sous-titre de ma Vie, il déclare que son intention, son désir est "me développer moi-même tel que je suis né". Ayant reçu tant de capacités à la naissance, il n'y eut pas d'année, de mois, de jour, où il ne chercha a s'expliquer à lui-même.

- Au XIXe siècle, trois esprits se sont interrogés sur les facteurs sociaux, humanitaires, économiques qui intéressent l'histoire de l'Homme : un philosophe, Nietzsche, l'a expliqué par la haine de la masse médiocre et l'émergence du surhomme, un psychiatre, Sigmund Freud, par l'analyse de l'inconscient qui découvre la psychologie des profondeurs, un sociologue idéologue révolutionnaire, Karl Marx, par la lutte des classes et l'incitation à la violence.

Le XIXe siècle fut aussi le temps du "Je" avec les grands écrits romantiques. Le romantisme peut être défini comme un mouvement de libération du moi en réaction contre le rationalisme "des lumières" du XVIIIe siècle. Le "moi" romantique recourut au roman autobiographique (Chateaubriand (René), Benjamin Constant, Musset), aux journaux intimes (Vigny, Delacroix).

Les journaux intimes, les mémoires sont des introspections. Certains sont des "récits de vie"

annuels (Jean-François Revel, Françoise Giroud) mais, plus souvent, ils sont "globaux" et posthumes Le diariste est courageux ou timoré, généreux ou égoïste, logique ou intuitif, aimable ou vindicatif, franc ou menteur. Il ne dit pas tout. Il retient surtout les heures de célébrité et de réussite ; des faits sont oubliés, choisis, sélectionnés, pour construire une belle image et satisfaire son amour-propre. Il n'analyse pas toujours de façon claire sa pensée profonde qui fut parfois motivante. L'introspection même systématique a donc ses limites. Il arrive que l'on soit pour soi un mystère et que les interrogatoires d'un observateur, d'un journaliste par exemple, éclairent et amènent à se découvrir.

Page 251: Colloque Sur Science

Quelques exemples parmi les plus connus : André Gide (18691951), dans ses écrits autobiographiques Journal 1939-1950, Le grain se meurt (1921) est hanté par la question "Peut-on dire la vérité sur soi-même ? " Tout avouer ? Se dévoiler totalement aux yeux des autres et de soi ? Simone de Beauvoir (1908-1986), dans Mémoire d'une jeune fille rangée, La force des choses a des thèmes favoris : l'enfance, l'identité féminine, la vocation d'écrivain, le corps, les relations amoureuses. Le journal intime de la malheureuse Anne Frank est d'un autre ordre. Cachée avec sa famille pendant deux ans à Amsterdam, elle commença son journal à 13 ans. Découverte en 1944, elle mourut dans un camp hitlérien en 1945.

Auguste Comte (1798-1857)) dans sa théorie positiviste cherche à démontrer l'impossibilité de l'introspection ; "par une nécessité invincible l'esprit humain peut observer directement tous les phénomènes, excepté les siens propre" 9 … Tout état de passion très prononcé, c'est-à-dire précisément celui qu'il serait le plus essentiel d'examiner est nécessairement incompatible avec l'état d'observation. Observer les phénomènes intellectuels pendant qu'ils s'exécutent est impossible. “ L'individu pensant ne saurait se partager en deux, dont l'un raisonnerait tandis que l'autre regarderait raisonner. Comment l'observation pourrait-elle avoir lieu ”10 11 III - Socrate et les sciences humaines

1°) De nos jours, l'esprit n'est plus accaparé par les dieux mythologiques, ni paralysé par la stricte obéissance aux règles scripturaires. Il est absorbé par I'irrationalité qui persiste toujours et surtout par la spéculation scientifique et par la technologie professionnelle. Les sciences étendent de plus en plus le champ du savoir. La conscience de notre ignorance ne cesse de croître ; chaque découverte fait apparaître d'autres inconnues. L'environnement social pénètre notre corps et notre esprit : le "soi" est parfois négligé.

Martin Heidegger a écrit (1953) : "Aucune époque n'a accumulé sur l'homme des connaissances aussi nombreuses et aussi diverses que la nôtre. Aucune époque n'a réussi à présenter son savoir de l'Homme sous une forme qui nous touche davantage. Aucune époque n'a réussi à rendre ce savoir aussi promptement et aussi aisément accessible. Mais aussi, aucune époque n'a moins su ce qu'est l'Homme".

2°) La connaissance de ce que nous sommes, de nos possibilités ou de nos incapacités à faire ou à ne pas faire, à dire ou non une chose, à nous perfectionner, à éviter les fautes et l'adversité, à juger les autres, à aider et à être aidé, nous affranchit et nous permet de nous suffire. En se connaissant mieux, on compare ce qui est juste ou injuste en soi, on s'estime ou non, on apprécie son savoir et son ignorance. Si au contraire on se fait des illusions, on apprend un jour que l'on s'est trompé, et on tombe dans le malheur et l'humiliation. L'ignorance de soi fait de l'Homme un être dépendant et esclave.

3°) La connaissance est borgne si elle est limitée à une partie d'un tout. Pascal a écrit : " Je tiens pour impossible de connaître un tout si je ne connais pas singulièrement les parties, mais je tiens pour impossible de connaître les parties si je ne connais pas le tout". La première proposition de Pascal est parfaitement entrée dans nos habitudes de pensée et dans notre culture, mais la

9 Auguste Comte, Cours de philosophie positive, première leçon 10 Auguste Comte, Cours de philosophie positive, première leçon

Page 252: Colloque Sur Science

deuxième est souvent oubliée. E. Morin nous rappelle dans son ouvrage La Méthode : "Le spécialiste (exclusif) est incapable de penser la connaissance dont il ne détient qu'un fragment" et l'hyperspécialisation est une "mutilation de la pensée". Nul spécialiste ne peut se passer d'une culture plus large que celle de sa discipline.

4°) Les "Sciences de la Nature" : que ce soient les sciences de la matière (mathématiques, physique, électronique, mécanique, chimie) qui décrivent les phénomènes dans un langage chiffré, ou les sciences de la Vie (biologie) qui énoncent des règles et des lois, éliminent systématiquement la personne. Les "Sciences Humaines", au contraire, conduisent à la connaissance de l'Homme dans sa globalité et sa complexité : "Connais l'Homme pour mieux te connaître". Terence a dit un peu dans ce sens : "Homo sum : nihil humanum alienum a me puto" (Je suis un Homme, et rien de ce qui est humain ne m'est étranger). Comment prétendre exercer notre rôle parmi les hommes sans connaître l'Homme. Les arts, la poésie, la philosophie, les romans, l'anthropologie, la psychologie, l'ethnologie, la sociologie, entretiennent cette connaissance et révèlent davantage l'homme que l'algèbre, la trigonométrie, ou l'informatique…

5°) Les "Sciences Humaines" contribuent à une connaissance complète de l'Homme, corps et esprit, mais ne sauraient satisfaire à elles seules la leçon de Socrate. Elles ne posent pas les questions de la pensée de l'homme de manière fondamentale et globale. C'est à la philosophie qu'il appartient de tenter de réaliser ce qu'implique la maxime delphique de Socrate. Au-delà de son expérience, de ses connaissances, tout homme doit aboutir à la réflexion philosophique et par elle à la vraie connaissance de soi. La philosophie est une médecine préventive de la pensée12. Elle ne s'éloigne pas de l'action, comme on lui a reproché. Aristophane avait tort de dire que Socrate s'égarait dans les nuages... Les philosophes classiques, au contraire, ont eu le plus souvent la volonté d'agir. Il n'y a pas opposition entre la pensée et l'action. La pensée précède l'action. La philosophie est un art de vivre.

6°) L'enseignement universitaire ne doit pas être une saturation de la mémoire ; sa mission

n'est pas seulement la formation professionnelle, elle est aussi la formation des esprits, la connaissance de la condition humaine et la réflexion sur le destin humain, particulièrement pour les futurs médecins. Comment exercer son rôle vis-à-vis des hommes si on ne connaît pas l'Homme ? Les "sciences humaines" sont l'actualité du "connais toi toi-même" puisqu'elles ont pour objet la connaissance de l'Homme global, de son histoire, de son évolution, de sa constitution, et par la de lui-même. Lorsque j'enseigne l'origine et l'évolution de l'Homme, le corps, l'esprit et l'âme, le cerveau et la pensée, l'innée et l'acquis, l'individu et la personne, le normal et l'anormal, la santé, la maladie et la mort, la tolérance, le civisme,... il m'arrive souvent d'avoir une pensée intérieure, d'être curieux de moi-même. Je m'efforce de transmettre cette curiosité aux étudiants.

Socrate n'est pas seulement l'incitateur à la connaissance de soi-même, il l'est aussi à l'étude de la pensée et de la condition humaines. On le reconnaît comme le père de la philosophie et l'initiateur des sciences de l'Homme.

12 G. Lazorthes : L'éthique médicale et la philosophie. Lecture Académie des Jeux Floraux, 15 janvier 1998.

Page 253: Colloque Sur Science

DEBAT

Jean Mesnard : Quelques questions de curiosité. Je me demande s'il n'y a pas relativement à la tradition du "connais-toi toi-même", une question qui se pose : Dans quelle mesure ce retour vers soi, si fondamental, est-t- il conscience du Moi comme complexe, ou du Moi comme simple ? Le Moi n'a-t-il pas quelque chose de contradictoire ? C'est quelque chose qui fait problème et dont la connaissance ne peut être complète sans perspectives qui vont dans le sens de l'avenir, en quelque sorte, dans l'avenir du Moi. Peut-être la seconde question permettra-t-elle de clarifier un peut cette interrogation. Il me semble que dans cette tradition du "connais-toi toi-même", on retrouve presque constamment, que se soit en Orient ou en Occident, un idéal dans lequel la maîtrise de soi est fondamentale. Qui dit qu'il ne faut pas se laisser aller à l'instinctif. Que ce n'est pas le désir qui doit gouverner l'existence du Moi. N'y a-t-il pas contradiction avec ce que nous voyons aujourd'hui et qui est, au contraire, une sorte de conformisme du désir, acceptation du désir comme étant la règle ? Est-ce que ce n'est pas vers cela que nous conduisent les sciences humaines au sens restreint du mot ? Vous avez habilement donné à ce terme, science humaine, un sens assez large, je crois, qui incluait la tradition antémoraliste, par exemple la tradition des philosophes en même temps que les recherches contemporaines. Quand on parle de la psychanalyse ou de la sociologie, l'aboutissement à justifier semble le fait beaucoup plus que le droit. Donc nous restons dans le stade scientifique. Une attitude scientifique ne peut pas donner de règles, ne peut pas orienter des choix. Pour orienter des choix, il faut avoir des valeurs, des normes et des objectifs, des buts. Sans cela, la connaissance de soi reste incomplète. Guy Lazorthes : Vous avez évoqué l'Orient et l'Occident. J'ai à ce sujet avancé quelque chose dont j'aimerais que vous me disiez si c'est aussi votre impression. A partir des philosophes grecs, il y a une suite que je n'ai pas voulu énumérer. En Occident, il y a eu continuellement des écrits, une culture qui s'est maintenue, qui s'est rénovée, qui s'est entretenue. A la même époque, cinq siècles avant Jésus Christ, il y a 2500 ans, il y a eu, en Orient des penseurs de qualité. Mais qu'y a t- il eu par la suite ? Je me suis informé. Il n'y a pas eu en Orient cette suite, je pense à Montaigne, Descartes, Pascal, Rousseau. Est-ce que j'ai tort ? Naturellement le taoïsme et le confusionnisme sont encore en action, mais il n'y a pas eu de publications comme nous en avons eu en Occident. Jacques Vauthier : J'ai l'impression qu'il y a une différence de sagesse. Le sage occidental conceptualise plus que le sage oriental. Le sage oriental donne des méthodes d'avancée vers une sagesse plutôt qu'une réflexion sur la possibilité d'atteindre cette sagesse. C'est une des grandes divisions entre l'Occident et l'Orient. Pierre Perrier : Si vous cherchez en Orient un développement de pensée de type occidental, qui cherche à aboutir, vous ne le trouverez pas. C'est là un premier tri qu'il faut faire. Il y a un deuxième tri, qui est le problème de la définition négative. Je veux dire que l'Orient - devant la difficulté de définir positivement et peut-être devant le refus de monter des structures de philosophie comme en a monté l'Occident - a préféré se réfugier dans une étude systématiquement négative. Cette étude négative a fourni maints écrits. Vous en trouvez énormément en Chine, en Perse et en Inde. Mais elle n'a jamais pris la forme occidentale consistant à bâtir un système. Elle a toujours la forme de la quête d'un recul. Elle est tellement forte dans ce sens- là que beaucoup des

Page 254: Colloque Sur Science

réflexions orientales sont des réflexions de recul, de recul sur soi-même ou de recul sur un minimum qui va prendre de la distance. Prenez par exemple le stoïcisme et la façon dont les disciples du Bouddha se placent dans une position de refus de participation au monde extérieur pour ne pas déformer leur propre pensée intérieure. Il y a un jeu qui a été comme positif et de construction en Occident et non pas négatif, mais de sélection du négatif, protégeant l'intériorité, en Orient, au risque réel de nier la personne. Vous ne trouverez pas d'équivalent, mais je ne pense pas que vous puissiez dire que la pensée n'a pas progressé en Orient. A mon avis elle a énormément progressé en Chine, de façon continue, jusqu'au VIIe ou VIIIe siècle, puis elle s'est un peu plus figée, mais elle a gardé la structure d'un formalisme ancien, donc beaucoup plus poétique ou mythique diraient certains. Les Grecs, au contraire, ont a priori refusé ce type d'approche. Ils ont estimé que leur pensée irait plus loin en s'éloignant d'une formulation mythique ou poétique, et à leur suite nous avons été jusqu'à pratiquement tuer la pensée symbolique. Guy Lazorthes : Dans les traités de médecine, ils sont encore motivés par le Yin et le Yang, et le taoïsme date de 2500 ans. Tout ceci est un peu figé !. Jean-François Lambert : Je voudrais rebondir sur les trois questions de Monsieur Mesnard, ou plutôt sur la question qui se cache derrière les trois. À la fin du XIXème siècle, la psychologie s’est constituée en sciences expérimentales en rejetant toute référence au vécu subjectif. La réflexologie pavlovienne comme le behaviorisme de Watson, puis de Skinner, se fondent sur un refus radical de l’introspection. Votre désir d’humaniser les sciences humaines et l’identification que vous en faites à une sorte de socratisme, est un idéal que je peux partager mais qui ne correspond pas à la réalité du développement de la psychologie au XXe siècle, ni à la manière dont les sciences humaines sont effectivement enseignées aujourd’hui dans les universités. Certes, un certain renversement de tendance s’est opéré à partir des années 60 avec le développement du paradigme cognitiviste qui n’ignore plus le fonctionnement de la “ boîte noire ”. Au demeurant, si l’introspection n’est plus bannie, les états mentaux sont assimilés aux états physiques d’un système de traitement de l’information. En principe, la subjectivité est réductible à une forme de calcul et donc tout doit être formalisable. S’il est de nouveau permis de parler de sujet, d’intentionnalité, de conscience, il s’agit toujours d’entités formelles. Ceci n’est pas une critique de votre approche, mais plutôt l’expression du regret qu’elle ne soit pas aussi répandue que vous le souhaitez. Si la psychologie enseignée dans les années 50 ignorait explicitement la subjectivité, je ne suis pas très sûr que le cognitivisme, avec son excès de formalisme, soit davantage porteur des valeurs humanistes que vous revendiquez. Je voudrais faire une seconde remarque. Dans votre bref historique, vous avez pris des repères couvrant 25 siècles. Vous ne pouviez citer tout le monde, mais je pense qu’il n’est pas innocent que, pour le XIXe siècle, vous ayez passé sous silence Freud et la psychanalyse. Selon Freud, précisément, le moi n’est pas maître chez lui. Or, on ne peut plus s’interroger aujourd’hui sur la notion de personne, sur celle de sujet, sans faire référence à cette notion d’un moi “ trouble ”, d’un moi divisé en son sein. Il est d’ailleurs intéressant de voir comment aujourd’hui, les sciences cognitives actualisent la notion d’inconscient sous la forme de processus implicites (mémoire implicite, subception…) mettant en évidence l’existence d’un “ inconscient cognitif ”.

Page 255: Colloque Sur Science

Guy Lazorthes : Oui, vous avez absolument raison. Bien sûr, j’étais conscient qu’en ce qui concerne mon sujet Freud intervenait, mais j'ai préféré ne pas m'égarer, pour qu'on me suive dans cette idée que, pour se connaître, il est bon de connaître l'autre. Basarab Nicolescu : J'aurais trois questions ou remarques. Ma première question est liée à la complexité. Dire : "connais-toi toi-même", c’est déjà formuler un paradoxe, et cela à un niveau très élémentaire, très naïf. Or, il faut considérer que "toi-même" est un système d'une certaine complexité. Et qui regarde ce système, s'il n'a pas une complexité au moins égale à celui qui doit être étudié ? Ce paradoxe peut certainement être résolu mais à cet égard si vous ayez des idées, j'aimerais bien les connaître. La deuxième remarque correspond à ce qu'a dit Jean-François Lambert. Il est clair que pour connaître ce "quelqu'un" qui est dedans, il faut qu'il y ait quelqu'un. Or le paradoxe de la situation en Occident - je ne sais pas ce qu’il en est en Orient - c’est qu'il y a, dedans, plutôt une foule de personnalités, qui ne méritent pas l'attribut unitaire que suppose l’expression "toi-même". Or ce "toi-même" sacré, mystérieux est quand même une unité. Il n'y a pratiquement personne à connaître si tout cela n'est pas unifié. Ma troisième remarque est que, si l’on se place sur le terrain des sciences humaines, je crois qu'on ne peut pas faire l'économie d'une science qui a toujours existé - bien avant la psychanalyse ! - et qui est la théologie : une science humaine tout à fait honorable, qui donne des clés sur la question de se connaître soi-même. J'aimerais avoir vos lumières sur ce sujet. Guy Lazorthes : Si l’on réalise que le précepte de Socrate est connu dès l'école, que l'on en parle par la suite, si l'on pense à tout ce qu'on a cherché à en déduire, à tout ce qui a été écrit, à tout ce qu'on a fait dire à Socrate, on voit qu’il est bon de schématiser. Je me suis permis de proposer : 1) le “ connais-toi toi-même ”, formule simple, 2) la leçon de morale qui en résulte, 3) le “ je sais que je ne sais rien, mais le plus grave serait d'ignorer mon ignorance ”, 4) l'intérêt du dialogue socratique. Fallait- il simplifier ou, au contraire, chercher à compléter ? Cet homme remarquable et son courage final, nous le connaissons par Platon car il n'a rien écrit … Retrouver Socrate et découvrir sa place dans l'actuel programme des "Sciences Humaines" m'a paru correspondre à l'objectif de nos réunions. Dominique Laplane : J’aimerais m’exprimer sur cette question de la théologie. Prenons l'idée qui a été particulièrement développée par Varela : “ nous sommes des systèmes auto-référentiels ”. Il en tire la conclusion - qui me parait s'imposer si l’on en reste là - que nous n'avons aucune connaissance du vrai à notre disposition puisque tout est auto-référentiel. Cela me paraît d'une simplicité évidente. Or si nous voulons avoir une liberté, condition de la dignité, il est absolument nécessaire d'envisager une vérité qui soit extérieure à l'homme. C'est une nécessité que l'on peut accepter ou refuser, je le comprends bien, mais je ne vois pas comment on peut s'envisager libre sans référentiel extérieur. J'avais proposé une image dans un livre que j'ai écrit précédemment, qui était celle d'un sous-marin précipité dans les océans d'une planète inconnue, sans cartes, sans compas. Il est libre de ses mouvements, mais ses déplacements sont sans signification. S'il n'y a pas quelque chose d'extérieur à ce système auto-référentiel, il n'est rien. Cette constatation que nous sommes auto-référentiels constitue l'acte de clôture de la philosophie des "Lumières". Des informations extérieures à nous-mêmes sont indispensables à notre liberté et à toute recherche de la vérité.

Page 256: Colloque Sur Science

Jacques Vauthier : Pour revenir au domaine de nos réflexions, c'est-à-dire au champ scientifique, j'aurais tendance à aller dans la même voie que Basarab Nicolescu. A savoir : de même que vous dites : il y a beaucoup de monde dans ce "Je" qui est intérieur, j'aurais envie de dire qu'il y a beaucoup trop de monde à l'extérieur. Ceci dans le sens que la science contemporaine a plutôt comme action de dissoudre "l'être", ce que je suis. Si je me regarde, par exemple dans le cadre de l'astrophysique, je me dis que je ne suis qu'une collection de molécules qui s'est agrégée. Est-ce que j'ai tellement envie de me demander ce que je suis ? Non, puisqu'on me dit que je suis un assemblage de molécules, et qu'assemblage de molécules, je me dissoudrai dans une sorte de néant. Je n'ai même plus envie de me poser la question. Pour ce qui est de la question de l'intelligence, lieu où je constitue ma connaissance, où est l'intelligence ? Où est mon intelligence actuellement ? Si je me tourne vers l'intelligence artificielle, du côté des gros ordinateurs, on me dit : "mais vous n'êtes tout compte fait qu'un algorithme qui marche plus ou moins bien". Et si je regarde du côté des neurosciences, on me dit que je ne suis qu'une chimie, une réaction chimique. Changeux écrivait, par exemple dans Matière à penser, que le domaine religieux n'est qu'une sorte de dérèglement chimique du cerveau. Si vous voulez avoir une petite expérience dans ce domaine, on vous mettra un produit estampillé petit a, ou, si vous voulez quelque chose de plutôt orienté vers le christianisme, on vous inoculera une molécule petit b, et ainsi vous serez heureux. Je caricature, c'est évident, mais, si je pousse le trait comme ça, c'est pour demander "est-on encore capable de se poser la question de savoir qui nous sommes ? Puis-je encore dire JE SUIS ?" Anne Dambricourt : Depuis Archimède, depuis l'Eurêka, ce qui reste toujours valable pour nous, pour les générations qui se succèdent, c'est le domaine de la prise de conscience. Je prends conscience que je suis un sujet, que je suis toujours en train de me rechercher. Il existe donc différentes approches de la connaissance, soit scientifique, soit d'inspiration personnelle. Quand on peut avoir ces deux approches, on se rend compte qu'il existe donc différentes façons de se connaître. Grâce à ce groupe de réflexion, je comprends que le problème reste toujours celui de l'émergence et de la transcendance. Toujours demeure le problème de la pluralité des niveaux de réalité, et la nécessité pour l'esprit d'envisager un méta-niveau pour pouvoir intégrer le niveau complexe en évolution. Le niveau cérébral complexe dynamique peut- il se saisir lui-même pour avoir conscience qu'il est lui-même un système dynamique, etc.. ? Il demeure toujours cette difficulté d'être à la fois l'instant, l'arrêt sur image, et de se savoir soi-même un système dynamique. Cette question n'est toujours pas résolue.. Existe-t- il un processus ou non ? La limite sur laquelle toujours bute l'esprit c'est : comment se représenter qu'il prend conscience d'être un sujet. C'est le recul par rapport à la réalité dans laquelle on se situe en tant que sujet conscient. La question de la transcendance, ou d'un méta-niveau, n'est pas évacuée par la découverte scientifique. La question n'est plus impertinente. On peut se la poser sans être tout de suite suspecté de vouloir introduire le vitalisme, ou de vouloir prouver l'insuffisance des modèles linéaires. Finalement donc, depuis Archimède nous restons avec cette question - cette expérience - de la prise de conscience (qu'est-elle du point de vue neuronal, fonctionnel, de la complexité etc…?). La question est permanente. Chaque génération naît, heureusement, avec elle. Avec cette dynamique de l'interrogation du sujet, qui, à mon sens, ne peut pas être totalement appréhendé sans le regard de l'autre, c'est-à-dire en restant enfermé dans le processus scientifique dit de l'objectivation.

Page 257: Colloque Sur Science

Jacques Ricard : Je voudrais rebondir sur le dernier point que vous avez évoqué dans votre intervention relative à la connaissance de soi. Vous avez évoqué la possibilité que la question puisse se dissoudre, en quelque sorte, dans l'existence d'un programme : en l'occurrence, j'imagine, dans votre esprit, dans le programme génétique. Je crois qu'à l'heure actuelle, nous avons une réponse claire à cette question, réponse qui a été apportée, un peu à l'encontre de ce que recherchaient les généticiens, par le nombre extraordinairement faible de gènes qui constituent le génome humain. Au départ, quand le projet a été lancé, les gens s'attendaient à avoir plus ou moins 300 000 gènes et finalement on arrive aux environs de 30 000, avec des difficultés de plus en plus grandes à définir la notion de gènes. Il apparaît qu'un organisme vivant aussi complexe que l'homme à, au maximum, deux fois plus de gènes que celui d'un ver de terre - un nombre ridiculement petit - et pratiquement moins de gènes que le riz. Il est difficile, dans ces conditions, d'identifier la complexité - degré de sophistication de ce qu'est un organisme vivant supérieur - à son patrimoine génétique. À l’époque où le projet “ génome humain ” a été lancé, Guilbert, prix Nobel de chimie, qui en a été l'un des pionniers, sortait un CD de sa poche en disant : “ ce CD peut contenir autant d’information qu'il y en a chez un homme et dans quelques années, on pourra sortir son CD et dire : voilà qui je suis. C'est moi ”. C'est là une réponse absolument négative à l'interrogation sur l’homme. Il est certain qu'on ne peut identifier ce qu'est un homme à son patrimoine génétique, qui est extraordinairement petit par rapport à ce qui était imaginé au départ. Hervé Zwirn : On ne considère plus aujourd'hui le génome comme un programme dont la seule longueur serait une mesure de la complexité mais plutôt comme un réseau de sites qui interagissent et produisent différentes configurations. La complexité est alors matérialisée par l'évolution de ce réseau et le nombre de configurations qu'il peut prendre. Si notre génome possède 30000 gènes et que l'on considère, ce qui est déjà très simplifié, que chaque gène peut être dans deux états (actif ou inactif), il existe alors

230000, c'est à dire 109000, configurations possibles. Ce nombre est gigantesque. Pour

nous en persuader, remarquons qu'il n'y a qu'environ 1080 atomes dans l'univers observable ! On voit donc qu’en dépit du nombre relativement faible de gènes humains, la complexité associée peut être gigantesque. Basarab Nicolescu : Il n'empêche que l'on reste dans le domaine de l'agent extérieur. C'est réductionniste.