106
1 Traduction : Granat Yvan

Traduction : Granat Yvan

Embed Size (px)

Citation preview

Page 1: Traduction : Granat Yvan

1

Traduction : Granat Yvan

Page 2: Traduction : Granat Yvan

2

Tables des matières

Chapitre 1 : prologue : une petite préhistoire des temps. o Grandes performances scientifiques des peuples anciens o Science de la Renaissance o Newton fonde la physique classique o La fin d’un rêve d’un rêve o Résumé

Chapitre 2 : quelques fondements – notre modèle atomique et son élaboration.

o 1803 – le modèle atomique selon John Dalton (1766-1844) o 1911 – le modèle atomique selon Sir Ernest Rutherford (1871-1937) o La charge d’un atome et l’expérience de Rutherford o Le courant électrique comme flux de porteurs de charges o Otto Hahn et la fission nucléaire o La recherche d’un modèle atomique parfait o Résumé

Chapitre 3 : la lumière et sa nature.

o La théorie corpusculaire o La théorie ondulatoire o La théorie ondulatoire comme explication du modèle d’interférence o La lumière comme onde électromagnétique o Résumé

Chapitre 4 : la vitesse de la lumière est absolue

o Quand les avions sont poussés par le vent o L’expérience d’interférométrie de Michelson et Morley o Espace et temps ne sont pas absolus : les transformations de Lorenz o Résumé

Chapitre 5 : Albert Einstein – la théorie de la relativité restreinte

o La vitesse de la lumière comme constante immuable o Pourquoi n’a-t-on plus besoin de l’Ether ? o E=mc² et le problème de la masse et de l’énergie o Résumé

Chapitre 6 : Qu’est-ce que la gravitation ? la théorie de la relativité générale.

o Le continuum espace-temps o Le comportement de la lumière dans l’espace-temps – le principe

d’équivalence. o La plus grande erreur d’Einstein o Résumé

Chapitre 7 : le problème du corps noir – heure de naissance de la théorique quantique.

o Qu’est-ce qu’un corps noir ?

Page 3: Traduction : Granat Yvan

3

o Le modèle atomique de Bohr o Les causes des raies spectrales dans le faisceau de lumière o Résumé

Chapitre 8 : recherche expérimentale en théorie quantique.

o Einstein et l’énigme de l’effet photoélectrique o La cellule photoélectrique et la constante de Planck o Franck, Hertz et l’exactitude de la théorie quantique o Résumé

Chapitre 9 : des ondes, des particules et des probabilités

o La lumière comme flux de photons o Le dualisme ondes-particules o Probabilités ou « où est mon électron ? » o « Dieu ne joue pas aux dés » o Les nombres quantiques et leur rôle dans l’architecture atomique o Résumé

Chapitre 10 : folie de l’univers quantique

o La double fente et la relation floue d’Heisenberg o La polarisation quantique et un étrange effet o Triste annonce : le chat de Schrödinger est mort vivant o Résumé

Chapitre 11 : le zoo des particules

o Détournement de l’antimatière par la théorie restreinte d’Einstein o Fermions et bosons o Protons, neutrons et quarks o Résumé

Chapitre 12 : la force nucléaire et son effet

o L’électrodynamique quantique et la force électromagnétique o La chromodynamique quantique et la force nucléaire forte o Théorie du tout et des super cordes o Résumé

Chapitre 13 : la conception quantique de l’espace et du temps

o Un vide n’est pas absolument vide ou le rayonnement du trou noir o Retour dans le passé – quand, pour les particules, le temps n’est pas linéaire o Trou de ver par l’effet Casimir ? o Combien d’univers existe-t-il ? o Résumé

Chapitre 14 : le problème quantique dans l’architecture du processeur

o La puce de silicium o Les frontière physiques des puces – l’effet tunnel o Le transistor quantique - effet tunnel

Page 4: Traduction : Granat Yvan

4

o Supraconducteur comme commutateur ? o Résumé

Chapitre 15 : incroyables possibilités : l’ordinateur quantique

o Des Qbits et des superpositions quantiques o Résonance magnétique nucléaire (RMN) o Pièges à ions o Compter avec des superpositions quantiques o EPR et décohérence o De nombreux problèmes irrésolus o Résumé

Page 5: Traduction : Granat Yvan

5

Préface Qu’est-ce qu’un ordinateur quantique ? Ce traité commence et finit avec cette question. Car si on veut connaître ce miracle de la technologie, on doit d’abord avoir compris les fondements de la physique quantique. Mais si on veut comprendre la physique quantique, on doit d’abord avoir compris le principe de relativité d’Einstein. Il existe quelques autres traités qui essayent de vulgariser la science (cela signifie qu’elle soit compréhensible pour tous). Par exemple, y sont inclus le bestseller « une courte histoire du temps » de Stephen W Hawking ou « l’évolution de la physique » d’Albert Einstein et Léopold Infeld. Le petit livre de 80 pages qu’Albert Einstein a publié montre à quel point il est difficile d’écrire un traité sur la relativité et la mécanique quantique qui soit compréhensible pour le grand public. Sa lecture était beaucoup trop difficile pour que le profane puisse la comprendre, ne fut ce que parce qu’y étaient utilisés trop de termes technique qui nécessitaient une explication plus complète.

Un étudiant en informatique a écrit : « La relativité et la physique quantique, deux théories changent notre vision du monde ». Comme probablement vous l’êtes aussi, je suis fasciné tant par la physique de l’infiniment grand que par celle de l’infiniment petit. « Je voulais comprendre le plan de Dieu » ainsi que l’exprima Stephen Hawking dans son ouvrage « une courte histoire du temps ». J’aimerais vous mener lentement et très prudemment à la question, pas toujours très aisée de la physique avancée. Sans être superficiel, je me suis efforcé de ne pas plonger trop profondément dans les détails. Stéphane Hawking a déclaré que, dans son livre susmentionné, il n’a accepté aucune formule (sauf E=mc²), parce ce que cela diminuerait les ventes de son livre. J’aimerais aussi m’en tenir là. Mais malgré tout, j’ai osé placer des équations ça et là. Vous pouvez facilement les sauter si vous détestez les mathématiques et si après votre scolarité, vous ne vouliez plus rien avoir avec elles. Mais celui qui en mathématique n’est pas tout-à-fait sous doué peut appliquer les formules. Par exemple, on peut, facilement et avec plaisir, calculer dans quelle mesure le temps personnel passe plus lentement quand on est en mouvement. Ce traité vous décrit d’abord l’évolution de la conception du monde scientifique. Il présente les bases pour la compréhension des problèmes de physique non résolus durant les 19 ème et 20 ème siècles. A l’époque, survinrent des questions sans réponse concernant la structure de la théorie quantique de Max Planck et de la conception de l’espace et du temps au sein de la relativité d’Albert Einstein. Ces deux sciences ont changé notre vision de l’univers. Cela aussi doit être soigneusement explicité. Si on a compris ces bases, la compréhension de l’ordinateur quantique ne constitue plus un but inaccessible. Dès lors, je vous invite à m’accompagner dans un voyage qui peut être passionnant, comme quelque safari en Afrique ou une croisière à travers tous les océans. Ce sera avant tout un voyage qui se déroulera dans les têtes – un voyage aux frontières de l’imagination humaine Dans cet esprit, je vous souhaite une bonne randonnée, agréable et instructive.

Stefan Frank

Page 6: Traduction : Granat Yvan

6

Chapitre 1 Prologue : une petite préhistoire des temps. Depuis les temps les plus anciens, l’humanité a eu pour but de comprendre le contexte de notre environnement, d’en prévoir les développements et de rendre les secrets de la nature utiles aux gens. Depuis l’antiquité jusqu’à aujourd’hui, des scientifiques à travers le monde se sont consacrés à la compréhension de la nature. Il y a actuellement plus de scientifiques impliqués dans cette recherche que durant tous les siècles précédents. Grandes performances scientifiques des peuples anciens L’astronomie et la mathématique sont un bon exemple du désir de recherche dans l’antiquité. Même si au début, les théories dans ce domaine étaient basées sur un arrière—fond mystique, leurs résultats sont encore partiellement valables aujourd’hui. On pourrait, par exemple mentionner la théorie de Pythagore. La congrégation ainsi appelée du nom du philosophe grec Pythagore (570- 500 avant Jésus Christ) essayait, entre autres, de décrire, à l’aide des mathématiques, le monde créé par Dieu. Des connaissances fondamentales dans le domaine des nombres premiers et dans d’autres domaines de l’arithmétique ont constitué les résultats de ces efforts. Aujourd’hui, les nombres premiers constituent la base de la cryptographie. Bien qu’il en porte le nom, le théorème de Pythagore (a²+b²=c²) ne provient pas de la plume du célèbre philosophe grec. Il était connu longtemps avant son époque : les anciens babyloniens l’avait sans doute utilisé plus de 1 000 ans avant les pythagoriciens. De même, les constructions des pyramides par les anciens égyptiens entre 2 700 et 1 000 avant Jésus-Christ ne constituent pas seulement une architecture raffinée et un admirable management. Ils sont aussi l’expression de solides connaissances en sciences naturelles et en mathématique. Il existe des théories selon lesquelles ces pyramides équivaudraient à un plan de construction céleste. Si on met face à face la position des pyramides et une carte stellaire dans laquelle on a préalablement recalculé les positions des constellations à l’époque de leur construction, on constate que le positionnement de certaines étoiles dans la constellation d’Orion correspond à celui des trois grandes pyramides de Gizeh (théorie d’Orion de Robert Bauval (1994)). Même si cette théorie est contestée, elle montre à quel point les connaissances de nombreux peuples de l’antiquité étaient valables. Les pythagoriciens cités plus hauts avaient la conviction que la terre était une sphère et que l’univers pouvait être décrit à l’aide de la théorie des nombres (théorie des sphères musicales). Stonehenge, le célèbre patrimoine culturel mondial situé dans le sud-ouest de l’Angleterre, est un témoignage encore plus important d’une connaissance aigue des sciences naturelles. Ce monument, construit entre 2000 et 1500 avant Jésus-Christ était à même, selon la théorie, de prévoir les solstices d’été et d’hiver et même les éclipses de lune et de soleil. Cette randonnée dans l’histoire de la science devait préciser ceci : Tôt, l’humanité vint à l’idée que les processus naturels obéissent à des lois déterminés (mathématiques). Rien ne se passe arbitrairement mais selon des plans que l’on peut symboliser dans des formules.

Page 7: Traduction : Granat Yvan

7

Science de la Renaissance. Bien sûr, la recherche scientifique n’a pas été une histoire de succès continus. Quand on considère le développement historique, il y a constamment des retours en arrière. On peut facilement s’en rendre compte en constatant que déjà, les pythagoriciens pensaient que la terre était une sphère alors qu’à l’époque de Colomb, encore très marquée en Europe par l’Eglise, on croyait que le disque terrestre tomberait si on le menait assez loin de la mer. Les analyses des astres, en totale contradiction avec les conceptions bibliques de la terre et de l’univers, apportèrent un tournant marquant dans la pensée européenne. Nicolas Copernic (1473-1543) expulsa la terre du centre de l’univers vers un rang quelconque. Elle est seulement une des nombreuses planètes qui orbitent autour du soleil. Johann Kepler (1571-1630) y apporta sa part lorsqu’il découvrit que toutes les planètes ne décrivent pas un mouvement circulaire parfait et divin, mais des révolutions elliptiques autour du soleil. Une grande part du déclin de l’enseignement ecclésiastique comme seule vérité scientifique a été le fait de Galileo Galilée (1564-1642). A l’aide d’une longue vue, il découvrit qu’autour de Jupiter, orbitaient d’autres planètes. Ces lunes jupitériennes prouvèrent que toute planète ne devait pas obligatoirement tourner autour de la terre comme on le pensait. Par cela, la théorie de Copernic selon laquelle la terre n’est pas le centre de l’univers s’en trouvait renforcée. A côté de la découverte significative de Galilée, son apport plus important et plus large réside dans l’instauration d’une méthode de recherche scientifique : observation, établissement d’une théorie scientifique avec utilisation de formules mathématiques, confirmation de cette théorie au moyen de nouvelles expériences. Aujourd’hui, Ce procédé semble évident. Mais ce n’était nullement le cas à son époque marquée par le christianisme dogmatique. Le seizième siècle (époque de la renaissance), fut caractérisé par un déclin de l’autorité ecclésiastique. Aux progrès en astronomie, correspondaient des activités scientifiques en médecine. Ainsi, en dépit des critiques, le médecin belge André Vésale (1514-1564) a pratiqué des autopsies sur les cadavres et a acquis des connaissances fondamentales en anatomie. On ne peut sans doute pas affirmer que les sciences naturelles sont devenues une sorte de nouvelle religion. Mais elles s’établirent comme un mode de pensée largement indépendante de l’église. Il faut considérer la pensée scientifique des siècles suivant en fonction de ce contexte. On attribua à la science une sorte de toute puissance. Tout est calculable, il faut juste trouver les lois. Ce mode de pensée eut un nouvel essor grâce à un homme qui peut être considéré, surement avec raison, comme le fondateur de la physique classique : Sir Isaac Newton (1643-1727). Newton et la fondation de la physique classique. L’histoire dans laquelle Newton, un beau jour, mangeait sous un pommier et a été touché à la tête par la chute d’une pomme, est sans doute connue de tous. Savoir si cette histoire est vraie ou pas, est hors de propos. Le fait important est la découverte publiée par Newton dans son œuvre : « Philosophiae Naturalis Principia Mathematica », la théorie de la

Page 8: Traduction : Granat Yvan

8

gravitation. Soudain, on pouvait expliquer et calculer le mouvement des planètes à peu près exactement. Ce fut une pierre blanche dans l’histoire de la recherche. Après avoir résidé dans les mathématiques supérieures, les sphères ont été fracturées. Newton et le mathématicien allemand Gottfried Wilhelm Leibniz (1646-1716) avait créé le calcul infinitésimal (mieux connu par les écoliers en difficulté sous le nom de calcul intégral et différentiel). Grâce à lui, il était possible de calculer n’importe quelle surface. En outre, avec les notions d’infinis, il permit de mieux appréhender les mathématiques. De nombreux problèmes mathématiques pouvaient enfin être résolus. Les deux siècles suivants furent marqués par de larges succès scientifiques : en physique, la thermodynamique, une part importante de la calorimétrie, a été fondée. James Clerk Maxwell (1831-1879) découvre l’équivalence entre magnétisme et électricité, Georg Simon Ohm (1787-1854) établit d’importants principes de base du courant électrique (loi d’Ohm sur la résistance). La chimie fit aussi des progrès. A Antoine Laurent de Lavoisier (1743-1794), revient une série d’importantes découvertes. Ainsi, il forge la notion d’élément en tant que matière qui ne peut être scindée en d’autres parties. Il établit le principe fondamental de la conservation de la matière dans les réactions chimiques (lors d’une réaction, il n’y a ni disparition de masse, ni ajout de masse à de la matière extérieure) et il découvrit la composition de l’eau : hydrogène et oxygène. En 1827, Friedrich Wöhler réalisa l’élaboration d’urée synthétique et fonda ainsi la chimie organique. La physico-chimie cherchait à expliquer les réactions avec des lois physiques et mathématiques. En 1898, Pierre et Marie Curie isolèrent le radium radioactif,… Beaucoup d’autres exemples pourraient être donnés ici. Comme progrès dans la médecine, il suffit de penser à la découverte des bactéries pathogènes par Robert Koch (1843-1910), le travail pionnier de Louis Pasteur grâce auquel il fut possible de réaliser des vaccins pour des maladies telles que la rage Somme toute, pourquoi est-ce que je raconte cela ? En fait, seulement pour comprendre l’affirmation suivante : L’univers est totalement déterministe. Si à un moment donné, l’état de tout l’univers nous est connu, alors à l’aide des lois des sciences naturelles, il est possible de prévoir tous les états futurs de l’univers. Ce point de vue était soutenu par le mathématicien et astronome français Pierre Simon Marquis de Laplace (1749-1827). Par déterminisme (du latin determinare (limiter)), on comprend qu’à un état x doit succéder l’état Y, l’état Z ne peut lui succéder. Ainsi, le système est totalement prévisible. Avec ce qui est décrit ci-dessus, vous pouvez, à présent, facilement, vous rendre compte comment cette affirmation est survenue. La fin d’un rêve. Le couronnement du travail scientifique en matière de physique fut très certainement les théories de la relativité restreinte (1905) et générale (1915) d’Albert Einstein (1879-1955). Elle engendra de profondes conceptions mathématiques de l’espace et du temps. Elle offrit une opportunité pour un travail scientifique profond et fondamental, mais aussi pour les auteurs de science-fiction et de fantastique. L’idée que le temps et l’espace ne sont pas

Page 9: Traduction : Granat Yvan

9

absolus, mais constituent « une affaire purement privée » comme l’a dit Albert Einstein, fascina autant les experts que le profane, elle confère une renommée mondiale à la simple équation de l’énergie, E=mc² (l’énergie est égale à la masse multipliée par la vitesse de la lumière au carré). Cela donnait l’impression que l’humanité était très proche d’un rêve : la calculabilité du tout et de tout. Un très ancien rêve, car, grâce à cette formule mondiale, on serait maître de la nature et on pourrait la changer et y régner à volonté. Pourtant, depuis la découverte de la relativité, près de 100 années se sont déjà écoulées et nous n’avons pas encore complètement en main toute ces formules. Il se trouva qu’Einstein mena des recherches dans ce but jusqu'à son dernier jour, mais malheureusement sans succès. Que s’était-il passé ? Pourquoi, jusqu’à aujourd’hui, ne pouvons-nous pas prédire l’évolution de l’univers ? La réponse à ce sujet peut facilement s’exprimer avec seulement deux mots, mais dont la portée est énorme : THEORIE QUANTIQUE. La théorie quantique et la physique quantique qui en découle donnèrent un sérieux coup au déterminisme. Un rêve de l’humanité parait s’évanouir. Mais la physique quantique fait grandir de nouveaux rêves et peut-être, des choses auxquelles, jamais auparavant, nous n’avions osé penser deviendront-elles des réalités. Laissez-moi vous présenter ce monde mystérieux de la physique quantique et ce qui se cache en coulisse. Vous verrez : l’avenir est aussi passionnant, justement parce que nous ne pouvons le prédire à 100 %. Mais je vous préviens, le physicien Niels Bohr le disait : « Qui n’est pas horrifié par la physique quantique, ne l’a pas comprise. » Vous verrez bientôt pourquoi Bohr est arrivé à cette constatation. Résumé Déjà avant la naissance du Christ, le peuples anciens se sont occupés des théories scientifiques et en ont découvert des fondements, qui restent valables aujourd’hui encore (par exemple, le théorème de Pythagore). Aux 15ème et 16éme siècles, la croyance qu’avait l’Europe moyenâgeuse de la toute puissance de l’Eglise déclina et de profondes connaissances scientifiques commencèrent à déterminer la nouvelle vision du monde. En cela, ont joué un rôle important, le scientifique Nicolas Copernic qui a expulsé la terre du centre de l’univers vers une position quelconque, Galileo Galilée, qui avec ses découvertes, a soutenu la théorie de Copernic et a introduit la méthode scientifique, enfin Johannes Kepler qui a découvert que les planètes ne décrivent pas des orbites circulaires mais elliptiques autour du soleil. Isaac Newton et Gottfried Wilhelm Leibniz ont révolutionné les mathématiques avec leur calcul infinitésimal. Cela mena à la théorie de la gravitation qui avec des connaissances scientifiques novatrices dans d’autres domaines, a conduit à un renforcement de la croyance en la toute puissance de la science. Le déterminisme est l’expression de cette foi. Après seulement une centaine d’années, cette euphorie devait être réduite par la découverte de la théorie quantique.

Page 10: Traduction : Granat Yvan

10

Chapitre 2 Quelques fondements – notre monde atomique et sa structure

Déjà à l’aube de l’humanité, se sont développées des théories sur la structure de la matière qui nous entoure. Une thèse célèbre de l’Antiquité grecque énonce que tout ce qui nous entoure est constitué de quatre voire cinq éléments fondamentaux : feu, eau, terre, air (et l’éther dont l’existence n’a été réfutée qu’à la fin du 19ème siècle). Cependant, le philosophe grec Leucippe (450-370 av JC) et son élève Démocrite (460- environ 370 av JC) ont développé une théorie propre de la matière,

qui, à bien des égards, se rapproche de l’actuelle. Ils se représentent le monde comme composée d’atomes (en grec, « atomos » signifie indivisible). Selon la présentation de ces philosophes, il s’agit de petites particules de matières invisibles qui volent au travers d’un espace vide. Notre monde réel est construit par la possibilité pour les atomes de se combiner et d’ainsi s’accumuler dans des endroits déterminés. En fait les particules de matière ne sont pas tout-à-fait des particules de matière. En principe, ils sont tous identiques les uns aux autres. Néanmoins, ils se différencient par leur taille, leur forme et leur position. Ainsi, la variété du monde matériel peut être expliquée. Jusqu’en 1803, cette théorie devait demeurer quasiment inchangé, jusqu’à ce qu’un homme du nom de John Dalton reprit la vieille théorie, poursuivit le développement du modèle atomique et l’introduisit en physique moderne. Ce fut le premier modèle atomique qui méritait ce nom, mais il ne devait pas longtemps demeurer le dernier. Beaucoup d’autres ont suivi. Ce développement doit être brièvement présenté ici, car le concept d’atome est fondamental pour la théorie quantique 1803 – le modèle atomique de John Dalton (1766-1844). Selon la conception de Dalton également, il existe différentes sortes d’atomes desquelles la matière est composée. Toute matière consiste, soit en un seul type d’atomes, soit se compose d’une combinaison de divers atomes. On a donc une substance qui se compose de diverses sortes d’atomes. Ainsi, on peut la décomposer dans ses composantes fondamentales. On appelle élément la matière qui ne peut plus être divisée en différentes parties. Les atomes d’un certain type sont égaux – ils ont le même poids et se comportent identiquement lors de réactions chimiques. La différence essentielle entre les types d’atomes réside dans leur poids (plus exactement : dans leur masse). Dalton prit l’hydrogène comme élément le plus léger et détermina les autres éléments connus en fonction de son poids. Finalement, il avait un système tabulaire duquel il résultait que l’élément X était tant de fois aussi pesant que l’hydrogène. Il est la base de notre actuel système des éléments périodiques.

Page 11: Traduction : Granat Yvan

11

Comme déjà Leucippe et Démocratique, il supposait que les atomes sont indivisibles. La masse de chaque atome est uniformément distribuée dans l’espace qu’il remplit (comme une balle de caoutchouc pleine). S’il se produit une liaison avec d’autres atomes, c’est alors dans son entièreté – dès lors, il ne peut se scinder et unir une de ses parties avec un autre atome. 1911 – le modèle atomique selon Sir Ernest Rutherford (1871-1937) Cependant, très vite il allait se révéler que ce modèle atomique ne pouvait être exact. Avant tout, la notion d’indivisibilité était chancelante. En 1895, William Konrad Röntgen (1845-1923) a découvert le rayon qui porte son nom1. Même si on ne pouvait pas encore tout-à-fait le vérifier, il avait comme étrange propriété de pouvoir pénétrer la matière. Comment cela pouvait-il être possible si, comme Dalton le formulait, la matière était compacte et remplissait complètement l’espace ? En 1896, Antoine Henri Becquerel (1852-1908) a découvert que d’autres substances émettaient du rayonnement, par exemple, le sel d’uranium. Pierre et Marie ont découvert les éléments polonium et radium qui émettaient du rayonnement et ont dénommé radioactives les substances qui ont cette propriété. Comment se pouvait-il qu’une matière émette facilement du rayonnement ? Il s’agissait seulement de quelques questions non résolues. En 1897, la découverte par Sir Joseph John Thomsen (1856-1940) d’une petite particule beaucoup plus légère que les atomes connus constitua une étape supplémentaire. L’électron, ainsi dénommé, ne convenait pas au modèle atomique en vigueur jusque-là. Ernest Rutherford se consacra à ce problème et seulement pour la première fois, il analysa ce que jusqu’ici, j’ai décrit avec le sinistre mot « rayon ». Tout d’abord, on savait uniquement que quand certains éléments émettent quelque chose, ils produisent des effets ailleurs. Comme cela a déjà été mentionné, le rayon x a la propriété de pénétrer la matière et d’éclairer un plaque photographique posée derrière (la radio de la main de son épouse est seulement le résultat de l’expérience de Röntgen). Dans ce cadre, on put aussi montrer que le rayon amène les substances phosphorescentes (similaires aux chiffres d’un réveil) à briller. Rutherford arriva à une conclusion très intéressante : Avant tout, il fallait se défaire de l’idée d’un atome indivisible. Les atomes sont parfaitement divisibles, ils se composent de particules encore plus petites. En outre, il n’y pas uniquement le rayon, mais il en existe de trois types différents: les rayons alpha, bêta et gamma. Le rayon gamma est une onde électromagnétique que j’exposerai plus complètement dans le chapitre 3 « la lumière et sa nature ». Le rayon bêta correspond à l’électron découvert par Thomsen et le rayon bêta à l’atome d’hélium. Pour comprendre ce qu’est un atome d’hélium, il faut savoir quel modèle atomique Rutherford a développé.

1 NDT : en français, il s’agit des rayons x

Page 12: Traduction : Granat Yvan

12

Rayon alpha, beta et gamma. Selon son idée, un atome correspond à un noyau compact qui est constitué de particules encore plus petites, dénommées protons. Ces derniers portent une charge positive. L’enveloppe est formée par les électrons négativement chargés. Ceux-ci orbitent autour du noyau comme des planètes. Entre le noyau et l’enveloppe, on ne trouve pas d’autre matière. Dès lors, la plus grosse partie d’un atome est constitué de vide, si on peut s’exprimer ainsi. En outre, il ne faut pas sous estimer les distances entre noyau et enveloppe. Le rapport de taille correspond à une balle de tennis (le noyau atomique) posé sur le toit de la cathédrale de Cologne (l’enveloppe atomique). Donc, un atome consiste presque totalement en vide.

En outre, Rutherford a, par la suite (en 1920), annoncé une particule dont l’existence n’a pu être prouvée qu’en 1932 : le neutron électriquement neutre. Avec les protons, il forment le noyau atomique. Le nombre de protons dans le noyau détermine quel élément on a devant soi, le nombre d’électrons exerce un effet fondamental sur les propriétés chimiques des atomes (par exemple les types de liaison avec d’autres éléments), mais pas sur leurs propriétés physiques (par exemple, leur densité, points de fusion et d’ébullition etc.). Le nombre de neutrons a aussi un effet sur les propriétés physique d’une matière. On appelle isotopes des éléments qui comptent autant de protons mais diffèrent par leur nombre de neutrons. Prenons l’exemple de l’hydrogène. Il consiste en un proton dans le noyau et un électron dans l’enveloppe. Mais il existe aussi le dénommé hydrogène lourd. A côté du proton dans le noyau et de l’électron dans l’enveloppe, il contient respectivement un ou deux neutrons supplémentaires dans le noyau. On nomme ce type d’hydrogène respectivement deutérium et tritium.

Page 13: Traduction : Granat Yvan

13

Il faut avoir digéré cela pour comprendre ce qu’est un atome d’hélium : un atome d’hélium est constitué de deux protons et de deux neutrons dans le noyau. Autour de celui-ci orbitent deux électrons dans l’orbite atomique. Un noyau d’hélium est donc un atome d’hélium sans les deux électrons. La charge d’un atome et l’expérience de Rutherford Dans les conditions normales, un atome est électriquement neutre vis-à-vis de l’extérieur. Cela signifie que les charges négatives des électrons de l’enveloppe compensent les charges positives des protons dans le noyau atomique. Mais, ce cas se présente seulement si la quantité des électrons est égale à celle des protons. Dès que la quantité d’un type de particule est supérieure à l’autre, l’ensemble de l’atome est chargé vis-à-vis de l’extérieur, soit négativement (si excès d’électrons), soit positivement (si manque d’électrons). Pour un atome qui n’est pas électriquement neutre, on parle d’un ion. C’est pourquoi, Le rayon alpha qui consiste en un atome d’hélium doit porter une double charge positive puisque les deux électrons de l’enveloppe font défaut et seules demeurent les deux charges positives du noyau atomique.

En 1911, Rutherford utilisa cette propriété de charge dans une expérience qui devait confirmer son modèle atomique. Il bombarda une mince feuille d’or avec des rayons alpha. Si, le cas échéant, l’atome avait été compact, seul un petit nombre d’atomes d’hélium aurait pu traverser la feuille d’or. Mais en réalité, un très grand nombre de rayon alpha la traversèrent. On pouvait le voir par les éclairs lumineux sur la plaque phosphorescente placée derrière la feuille d’or. Ainsi donc, les noyaux d’hélium, qui n’avaient pas été déviés durant leur traversée, formaient un ensemble disséminé autour de la feuille d’or. Des calculs intensifs menaient à la conclusion que celui-ci n’était explicable que par la structure de l’atome : l’atome d’hélium, électriquement positif, était dévié par les noyaux positifs d’atomes d’or. Car, les charges positives comme les charges négatives se repoussent entre elles tandis que les charges de sens contraires s’attirent.

Page 14: Traduction : Granat Yvan

14

Comme vous l’avez appris plus haut, il existe des particules qui peuvent être chargées positivement ou négativement, on appelle ces particules, porteuses de charge. Le courant électrique, comme nous l’utilisons chaque jour pour différentes choses, n’est rien de plus qu’un flux de porteurs de charge, plus exactement : un flux d’électron. On relie un matériel (par exemple un métal) qui est porteur d’un excès d’électron avec un matériel qui présente un manque d’électron. Ainsi, les électrons en excès d’un matériel sont attirés par le matériel chargé positivement. Mais la condition pour qu’il y ait un flux d’électrons est que le lien entre les deux matériaux soit conducteur. Un matériel est conducteur si des électrons à l’intérieur de celui-ci peuvent s’écouler plus ou moins librement. Le libre flux d’électrons à l’intérieur du conducteur est entravé ? Cela veut dire que celui-ci lui oppose une résistance. Cela est désigné par le symbole R et est mesuré avec l’ohm pour unité. Si la résistance est très grande, le courant électrique n’est plus possible. On appelle isolants des matériaux qui présentent une telle propriété. Volt et ampères constituent deux notions qui surviennent régulièrement en matière de courant électrique. Ceux-ci aussi s’expliquent aussi au moyen du modèle de charge. On peut interpréter la tension (symbole U) comme l’énergie de mouvement des électrons. Plus la différence de charge entre le matériel positif et le matériel négatif est importante, plus considérables sont la force d’attirance du côté positif et la force de répulsion du côté négatif. Les électrons sont attirés plus fortement par de plus intenses forces ce qui se traduit par une plus grande « vitesse de circulation » des électrons individuels. Ils traversent le conducteur aussi vite que la différence de potentiel est importante. On mesure celle-ci en volt (symbole V) avec un appareil appelé voltmètre. Par contre, l’intensité électrique (symbole I) est estimée en ampère (symbole A) au moyen d’un appareil appelé ampèremètre. C’est une mesure de la quantité d’électrons qui, par seconde, traversent un point quelconque du conducteur. On multiplie l’intensité électrique par la tension pour obtenir la puissance électrique (P) qui est mesurée en watt (connue par l’indication sur l’ampoule électrique). P=U.I

Page 15: Traduction : Granat Yvan

15

Maintenant, on multiplie cette puissance électrique par la durée considérée (t) pour obtenir le travail électrique (W, à ne pas confondre avec l’unité W pour watt !). On le mesure en watt par seconde (Ws). W=P.t=U.I.t Mais cela devrait vous être mieux connu avec la dénomination kWh (kilowattheure). En effet, les kilowattheures correspondent exactement à ce que le fournisseur d’électricité mentionne régulièrement sur votre facture. Ainsi, par exemple, laissez brûler une ampoule électrique de 60 watts durant une heure et vous devrez payer 60 wattheures soit 0,06 Kwh. Pour une meilleure compréhension, veuillez trouver, à nouveau, ci-dessous rassemblés les concepts, leurs symboles et leurs unités.

Otto Hahn et la fission nucléaire. Vous avez pu constater que les atomes ne sont pas des particules matérielles compactes qui demeurent statiques sans qu’il soit possible d’y changer quoi que ce soit. Ainsi, vous avez déjà vu que l’on peut enlever des électrons à un atome (et aussi en rajouter), par exemple au noyau de l’atome d’hélium qui constitue le rayon alpha. Mais la question de la provenance de ce rayon demeure. Pourquoi des matières déterminées comme, par exemple, le sel d’uranium émettent des rayons alpha, beta et gamma ? La réponse réside dans la fission atomique. Ici aussi, Rutherford a obtenu des résultats majeurs. L’azote est un élément qui contient 7 protons dans son noyau. Rutherford bombarda ceux-ci avec des particules alpha, donc des noyaux d’hélium avec 2 protons. Il en résulta un atome avec 8 protons dans le noyau plus un proton libre. Il a déjà été mentionné plus haut à quel élément correspond ce nombre de protons. Cet élément avec 8 protons, nous l’appelons oxygène. Donc Rutherford était parvenu à transmuter l’élément azote, ennemi de la vie, en oxygène nécessaire à la vie (plus exactement en un isotope d’oxygène bien précis). Il s’agissait de la première réaction nucléaire artificielle. Puis, en 1938, le chimiste allemand Otto Hahn (1879-1968) réalisa une étape fondamentale pour la fission nucléaire, aujourd’hui tout à fait classique dans les centrales atomiques. Déjà avant Hahn, Enrico Fermi (1901-1954) avait bombardé des éléments avec des neutrons ;

Symboles Unités de mesure

Tension U Volt (V)

Intensité électrique I Ampère (A)

Résistance R Ohm (Ω)

Puissance électrique P Watt (W)

Travail électrique W Watt/seconde (Ws)

Page 16: Traduction : Granat Yvan

16

ainsi, il avait artificiellement manipulé le noyau dont celui de l’uranium, un élément de 92 protons. Mais on croyait, que par ce bombardement du noyau, naitraient des éléments qui possèderaient plus de 92 protons, donc, 93,94, 95 (appelé transuraniens). En collaboration avec son collègue Strassmann, Otto Hahn démontra qu’il n’en était rien. Le noyau n’obtenait pas de particules élémentaires comme c’était le cas avec l’expérience azote-oxygène de Rutherford, il fut plutôt scindé. Otto Hahn découvrit que l’uranium se divisait en baryum, un élément de 56 protons et en krypton, un élément de 36 protons dans le noyau (56 +36 = 92 !). En outre, il y avait de nouveaux neutrons libres qui, à leur tour pouvait diviser d’autres atomes d’uranium – une réaction en chaîne avait eu lieu. A côté de cette fission nucléaire artificiellement provoquée, il y a aussi des processus naturels de scission. Il existe des configurations nucléaires qui sont instables le noyau contient soit trop de neutrons et de protons, c’est-à-dire tout simplement trop d’énergie. Le noyau possède la faculté de se transformer lui-même en une configuration plus stable de protons et de neutrons. Ainsi, il abandonne simplement ce qui le perturbe. Le résultat en est le rayonnement alpha, béta et gamma. A ce stade, je ne peux pas encore expliquer ceci plus exactement et pour l’instant, il reste encore quelques notions fondamentales non développées. Pour cela, je renvoie au chapitre «les frontières physiques du chips – l’effet tunnel ». La recherche d’un modèle atomique parfait Le modèle atomique de Rutherford pouvait très bien expliquer de nombreux phénomènes. Cependant, il y avait des lacunes qu’il s’agissait d’améliorer. En 1913, Niels Bohr, après Rutherford, développa encore le modèle et constata que des électrons ne pouvaient tourner autour du noyau que dans des orbites déterminées. Jusque là, en théorie, chaque orbite planétaire autour du noyau était possible. Par contre, Bohr établit des orbites totalement déterminées et fixes. En outre, il les calcula. Mais des erreurs furent aussi rapidement constatées dans ce modèle. Par l’usage de la relation d’incertitude d’Heisenberg2 dans le domaine de la physique quantique, on arrivait à un tout nouveau modèle : la théorie dite orbitale. Rien compris ? Peu importe ! A ce stade, les deux derniers modèles ne sont mentionnés qu’à titre d’exhaustivité. Pour pouvoir en comprendre le contexte, vous avez d’abord besoin des fondements de la théorique quantique. Cela est entamé avec le prochain chapitre dans lequel la nature de la lumière est tout d’abord expliquée, en tout cas, aussi loin que notre science actuelle le peut. Résumé Les philosophes grecs Leucippe et Démocrite ont développé la première conception d’atomes qui, en tant que particules inséparables, devaient former la base de toute matière. En 1803, Dalton développa ce modèle et expliqua les relations chimiques comme une réunion d’atomes de différents types. On appelle élément les atomes qui ne sont pas encore séparables en d’autres espèces d’atomes. En 1911, Ernest Rutherford développa un modèle 2 NDT : en allemand, l’auteur parle de « relation floue »

Page 17: Traduction : Granat Yvan

17

plus sophistiqué dans lequel le noyau est formé de neutrons et de protons tandis que l’enveloppe atomique est formée par des électrons. La quantité de protons détermine de quel élément il s’agit. On parle d’isotope quand deux atomes ont le même nombre de protons et différent par celui de neutrons. Si par rapport à l’extérieur, un atome n’est pas électriquement neutre, il règne un manque ou un excès d’électrons. Si ce cas se produit, on a un ion. Le courant électrique n’est rien de plus qu’un flux de particules électriquement chargées (des électrons) qui émigrent d’un excès d’électrons vers un manque d’électrons. Par la fission nucléaire, les noyaux atomiques sont divisés, à l’occasion de quoi, un rayonnement est émis. Ce processus peut être causé par des phénomènes naturels, mais il peut aussi être artificiellement provoqué. Des rayonnements alpha, beta et gamma sont émis. Les premiers consistent en noyaux d’hélium et les rayons bêta en électrons.

Page 18: Traduction : Granat Yvan

18

Chapitre 3 : La lumière et sa nature. Aujourd’hui encore, la question « qu’est ce que la lumière ? » préoccupe la science. En effet, jusqu’à présent, cette question n’est pas encore totalement résolue. La théorie corpusculaire. Pour Isaac Newton, la lumière se composait de petites particules dénommées corpuscules qui existaient à côté des atomes. Au début, cette explication paraissait crédible, puisqu’on pouvait ainsi expliquer certains phénomènes de façon satisfaisante. Par exemple, la réflexion de la lumière : Comme vous l’avez surement appris à l’école, dans la réflexion lumineuse, l’angle d’incidence est égal à l’angle du rayon réfléchi. L’angle par lequel la lumière touche une surface réfléchissante correspond à l’angle avec lequel la lumière est rejetée. Une balle de caoutchouc que l’on jette sur le sol se comporte de la même manière que la théorie particulaire des corpuscules le prévoit. De même, un autre phénomène peut être décrit par la théorie corpusculaire, quoique de manière moins satisfaisante. Si on tient un bâton dans de l’eau claire et que l’on regarde la surface d’eau d’en haut, on constate que le bâton parait courbé. L’explication corpusculaire est la suivante: les petites particules se déplacent plus rapidement dans l’eau que dans l’air. Ainsi, cette illusion optique se produit.

La théorie ondulatoire. Mais des phénomènes précis ne sont pas expliqués. Dès lors, parallèlement à la théorie corpusculaire s’est développée la théorie ondulatoire de la lumière, initialement par le néerlandais Christiaan Huygens (1629-1695) en 1678. Ces ondes lumineuses ont des similitudes avec les ondes aquatiques. Cependant, le milieu de propagation n’est pas l’eau mais quelque chose qui est appelé éther. Plus haut, j’ai déjà brièvement mentionné cette «matière », je l’ai présentée comme la cinquième matière originelle. On s’était imaginé que l’éther sillonne l’ensemble de l’univers sans que l’on le perçoive directement. Les ondes lumineuses devaient être portées par ce milieu, comme l’eau est la porteuse des vagues3 aquatiques.

3 NDT : dans la version originale, l’auteur emploie le même mot pour les vagues dans l’eau et les ondes lumineuses (Welle). Dans la traduction, nous avons préféré distinguer les deux notions malgré leur similitude de sens.

Page 19: Traduction : Granat Yvan

19

Mais, hélas, à côté de la théorie corpusculaire, la théorie ondulatoire demeura dans l’ombre. Il fallut 100 ans avant que les deux théories se confrontent de manière plus intense. La raison originelle en fut une idée que soutenait Thomas Young. Il transposa aux ondes de lumière l’observation que l’on peut faire sur une surface d’eau : si on jette une pierre sur une surface d’eau tranquille, totalement immobile, une vague se répand autour de cette pierre. Nous avons tous surement fait cette observation. En outre, on peut facilement distinguer les hauts et les creux des vagues puisque l’eau décrit une sorte de courbe sinusoïdale autour de la pierre. Maintenant, faisons quelque chose d’un peu plus compliqué : on prend deux pierres et on les jette à faible distance dans l’eau. Alors, elles provoquent des mouvements de vagues en forme de croix sur la surface. A un certain moment, les deux mouvements se rencontrent et provoquent des effets les uns sur les autres. On peut observer ce qui suit : si deux hauts ou deux creux de vagues se rencontrent, elles s’additionnent. Le haut de la vague devient donc plus haut et le creux plus profond. Par contre, si un haut et un creux se rencontrent, la hauteur du haut de la vague est réduite par la hauteur du creux la vague (ou mieux : son énergie). Le résultat est soit un haut de vague de plus faible hauteur (c’est-à-dire d’énergie), soit même un creux de vague si l’ « énergie négative » du creux surpasse l’ « énergie positive » du haut. Si l’énergie du bas est exactement égale à celle du creux, les deux effets se compensent et il en résulte une surface d’eau plate. On appelle interférence le renforcement ou l’annulation des hauts et des creux.

Young a transposé cela aux ondes lumineuses. Si, conformément à son idée, on considère la lumière non en tant que particules mais en tant qu’ondes, ici aussi, les hauts et les creux des

Page 20: Traduction : Granat Yvan

20

ondes pourraient s’annuler les uns les autres. Cette conception pouvait immédiatement expliquer des expériences physiques, ce à quoi la théorie corpusculaire avait préalablement échoué. Il apparaissait même que toutes les expériences optiques non résolues du début du 19ème siècle pouvaient être ainsi expliquées. Cela a été le début du triomphe de la théorie ondulatoire de la lumière. Quelque importantes expériences optiques qui ont eu une portée majeure dans le développement de la théorie quantique sont présentées ici. La théorie ondulatoire comme explication du principe d’interférences On fait passer la lumière par une petite fente dans une boite obscurcie et on constate quelque chose qui ne pouvait être expliqué avec la théorie corpusculaire en cours. Si on se basait sur cette dernière, on devrait voir ceci : Par la fente, la lumière entre dans la boite, elle en traverse l’espace en ligne droite et atteint l’autre extrémité sur la paroi opposée où nous avons une image clairement délimitée de la lumière d’entrée. Mais en réalité, l’image est effilochée aux bords et surtout, la région éclairée de la paroi arrière est plus grande que la fente. Comment cela peut-il donc arriver si la lumière traverse la boite en ligne droite ? Ici, l’explication est la théorie ondulatoire : On imagine une vague d’eau dirigée vers un mur dans lequel il n’y a qu’une petite fente. Que va-t-il se passer ? La vague se jette sur le mur qu’il rencontre à l’emplacement de la fente De là, se forme une nouvelle vague qui se poursuit en demi-cercles. Selon notre expérience, l’onde lumineuse traverse la fente lumineuse, forme de nouveaux demi-cercles et s’éloigne. Ainsi, on peut expliquer pourquoi la lumière arrive effilochée à la paroi arrière. Il n’y a pas de rayons lumineux linéaires qui traversent l’espace, il y a plutôt des ondes courbées.

Maintenant, on peut encore quelque peu compliquer cette expérience. Après que la lumière ait passé la première fente, la nouvelle onde lumineuse générée est renvoyée sur la paroi arrière. Mais, maintenant, sur celui-ci, se trouvent deux fentes lumineuses verticales l’une près de l’autre. L’onde lumineuse précédemment générée est à nouveau partagée entre les deux fentes. Il en résulte deux nouvelles ondes lumineuses qui se développent derrière elles. Je crois que vous soupçonnez déjà où je veux en venir avec cette expérience. Vous savez que pour deux vagues d’eau, les hauts et les creux peuvent, selon la situation, s’additionner ou se soustraire, voire même s’annuler l’une l’autre. Exactement ce qui se passe dans cette

Page 21: Traduction : Granat Yvan

21

expérience : sur la paroi arrière, aucune entité matérielle de lumière n’est identifiable, mais il y a des zones alternativement sombres et claires, soit le principe d’interférence. Les zones claires marquent des endroits sur lesquels la lumière s’est renforcée, au contraire des zones sombres des zones dans lesquelles, la lumière s’est affaiblie, voire annulée.

La lumière en tant qu’onde électromagnétique J’ai déjà parlé des charges électriques positives et négatives dans la description des propriétés atomiques. En fait, l’électricité n’est rien de plus qu’un mouvement d’un porteur de charges. Les porteurs de charges peuvent, par exemple être des électrons (charge négative) ou des protons (charge positive). Mais vous avez déjà appris que tout l’atome peut avoir une charge, comme les particules alpha, déjà souvent citées, qui représentent un atome d’hélium sans électrons et qui est ainsi chargé deux fois positivement. Une particule chargée peut exercer de la force sur d’autres particules, chargées elles aussi. Ainsi, deux particules de même charge se repoussentr comme des charges opposées s’attire. On appelle champ électrique la zone d’effet des forces électriques sur une particule chargée. Elle diminue avec l’éloignement des particules. Grâce à l’expérience avec des barres aimantées, nous connaissons tous l’aimant. A l’école, nous avons tous appris que celui-ci s’aligne sur deux pôles opposés : un pôle nord et un pôle sud. Ici aussi, s’applique la loi déjà connue : les pôles de même polarité se repoussent, les pôles de polarité opposés s’attirent. Un aimant a la faculté de rendre magnétiques d’autres objets(le fer par exemple). On appelle champ magnétique la zone dans laquelle la force agit sur un corps magnétique. Celle-ci diminue aussi en fonction de la distance. Grâce à cette description, il apparaît déjà que les champs magnétiques et électriques ont beaucoup de points communs. Le physicien écossais James Clerk Maxwell (1831-1879) l’a également constaté. Sa recherche l’amena à la conclusion que le mouvement d’une charge électrique cause toujours aussi un champ magnétique. Pendant qu’un électron orbite autour du noyau d’un atome, il cause donc automatiquement un champ magnétique. Mais Maxwell alla encore beaucoup plus loin : grâce à d’exceptionnelles prouesses mathématiques, il

Page 22: Traduction : Granat Yvan

22

parvint à montrer que les forces électriques et magnétiques sont deux effets d’un champ électromagnétique et à réduire à quatre le nombre de formules qui mathématisent les deux sortes de champs, elles appréhendent simultanément les deux champs. Un autre enseignement important était qu’une modification d’un champ électrique provoque un champ magnétique et vice-versa. Donc si un champ électrique s’élabore (il devient plus fort), il se modifie et provoque un champ magnétique. Celui-ci, de son côté se développe et de cette manière provoque à nouveau un champ électrique etc. Bien qu’il ait fallu encore un moment avant que ce résultat de recherche soit reconnu, nous savons aujourd’hui que la lumière peut être interprétée comme une onde électromagnétique Puisqu’un champ électrique provoque un champ magnétique et inversement, il n’y a pas besoin d’intermédiaire pour voyager à travers l’espace, il est pour ainsi dire auto entretenu. Par là, le concept d’éther devenait superflu. Ce moyen de transport de la lumière n’était plus utile. Heureusement, car nous établirons bientôt qu’il n’y pas d’éther. On désigne par fréquence les nombre de vibrations du champ magnétique par seconde. Plus haute est la fréquence, plus haute est l’énergie de ce dénommé champ électromagnétique.

A présent, on peut facilement expliquer ce qu’est un rayon gamma : ce n’est rien de plus qu’une onde électromagnétique avec une très haute fréquence (donc un important contenu énergétique). La fréquence est de 1020 hertz et plus (hertz équivaut à « ondulation par seconde »). Par contre, le rayon x a une fréquence plus basse. De même, les couleurs que nous pouvons apercevoir ont différentes fréquences ondulatoires, depuis le bleu riche en énergie jusqu’au rouge plus pauvre. La lumière blanche consiste en une superposition d’autres couleurs, un murmure d’ondes si on peut dire. Une lunette par laquelle on ne voit que le rouge filtre la lumière émise par les objets des environs et ne laisse passer que la lumière avec une « longueur d’onde rouge ». Toutes les autres couleurs sont soit absorbées, soit réfléchies.

Page 23: Traduction : Granat Yvan

23

Au début de ce chapitre, j’ai dit que la science ne sait pas tout-à-fait ce qu’est la lumière. Mais pourtant, il semble que nous avons trouvé une réponse satisfaisante. Mais cela le semble seulement ! En réalité, il n’est dit ici qu’une demi-vérité. Le débat scientifique suivra son cours, vous pouvez y compter. Mais dès à présent, j’aimerais mettre à l’épreuve la puissance de votre imagination avec quelque chose de tout-à-fait nouveau : La théorie de la relativité d’Einstein. Je vous souhaite beaucoup de plaisir avec cela !! Résumé Tout d’abord, la théorie corpusculaire s’était imposée dans le paysage scientifique. Christiaan Huygens et Thomas Young ont, les premiers, apporté des arguments en faveur de la théorie ondulatoire par lesquels beaucoup de physiciens ont changé d’avis. L’explication du phénomène d’interférence constitua un de ces arguments. James Clark Maxwell poursuivit cette réflexion et réalisa une réunification mathématique des forces électriques et magnétiques. Selon son idée, la lumière est une onde électromagnétique par laquelle une modification du champ électrique provoque un champ magnétique et inversement. La longueur d’ondes de l’oscillation représente le type de lumière.

Page 24: Traduction : Granat Yvan

24

Chapitre 4 : La vitesse de la lumière est absolue Vous avez déjà fait connaissance avec beaucoup d’importantes propriétés de la lumière. Cependant, il y a un thème que jusqu’ici, j’ai laissé de côté : la vitesse de la lumière. Aujourd’hui, nous savons que la lumière a besoin d’une seconde pour parcourir une distance de 300.000 kms (exactement : 299.729,5 kms), ou exprimé autrement : la lumière a une vitesse de 300.000 km/s soit 1.080.000.000 km/h (il s’agit de plus d’un milliard de kilomètre par heure !). L’idée que la lumière a une vitesse nous parait évidente aujourd’hui, mais ce n’était absolument pas le cas au début. Tout d’abord, on concevait que la lumière n’avait absolument pas besoin de temps pour parvenir de sa source à n’importe quel autre endroit. Dès qu’elle est émise, elle atteint la cible sans pour cela avoir besoin de temps. La vitesse de la lumière était, pour ainsi dire, infiniment grande. Le premier, l’astronome danois Olaf Romer (1644-1710) modifia cette conception en 1675. Il lui semblait qu’un phénomène astral ne pouvait s’expliquer avec une vitesse de la lumière infinie. A l’aide de télescopes, il lui était possible de constater comment une des lunes de Jupiter se dégageait de l’ombre de la planète. Plus la terre en était éloignée, plus il fallait du temps avant qu’on puisse le voir. Cela pouvait s’expliquer par le fait que la lumière de la lune de Jupiter était tout simplement en voyage vers la terre en prenant plus de temps. Aujourd’hui nous savons que la lumière prend huit minutes pour aller du soleil à la terre et environ une seconde de la terre vers la lune. Si un dieu puissant prenait un cliché de la lumière du soleil, cela nous arriverait sur terre seulement huit minutes plus tard. Si nous regardons dans le ciel, nous regardons toujours dans le passé. Et plus une source de lumière est éloignée, plus loin nous pouvons voir dans le passé. Un exemple : la lumière de l’étoile Alpha de Centaure a besoin, en raison de la grande distance, de quatre ans avant de rencontrer la terre. Nous voyons donc l’étoile telle qu’elle était il y a quatre ans – peut-être a-t-elle explosé entretemps ? Pour pouvoir appréhender les incroyables grandes distances dans l’espace, on a introduit une nouvelle unité de mesure. Ainsi, une seconde lumière est la distance que parcourt la lumière en une seconde (300.000 km). Une année lumière est la distance que la lumière parcourt dans l’espace durant un an (cela donne 300.000 km x 60 secondes x 60 minutes x 24 heures x 365 jours = 9.460.800.000.000 km, soit presque 10 billions de kilomètres !). Puisque la lumière d’alpha de centaure met environ quatre ans pour nous parvenir, cela signifie qu’elle est éloignée de quatre années lumières, soit près de 40 billions de kilomètres. Quand les avions sont poussés par le vent Comme on l’a déjà décrit dans un chapitre précédent, on pensait encore à la fin du 19ème siècle que l’espace était rempli d’une « substance » du nom d’éther. Cela était, entre autres, nécessaire pour servir de moyen de transport des ondes lumineuses. L’éther se tient tranquille pendant que les planètes se baladent à travers lui. Peut-on prouver cet éther ? A ce sujet, les deux physiciens Albert Abraham Michelson (1852-1931) et Edward Williams Morley (1838-1923) avaient mené des réflexions qui reposaient sur le fondement suivant. On prend un avion et on le fait d’abord voler contre le vent. Ensuite, il doit tourner et revenir avec le vent dans le dos. On enregistre le temps dont l’avion a besoin pour le voyage aller et pour le voyage retour. Maintenant on fait parcourir à l’avion la même distance avec un vent

Page 25: Traduction : Granat Yvan

25

perpendiculaire (avec un même fonctionnement des moteurs). Ici aussi, le temps est chronométré. Quand on compare les deux mesures de temps, on constate que l’avion qui a volé avec un vent perpendiculaire a eu besoin de moins de temps que celui qui a volé avec un vent de face puis de dos pour la même distance.

En 1887, les deux scientifiques ont transposé cette expérience à l’éther qui leur servait de «source de vent ». L’expérience de l’interféromètre de Michelson et Morley Comme cela a déjà été mentionné, on se représentait l’éther comme un « n’importe quoi » tranquille (qu’on me pardonne cette expression), qui, lui-même, n’exécute aucun mouvement. Mais, maintenant, on sait que la terre est en mouvement. En l’espace d’un an, elle fait une révolution autour du soleil et ainsi, parcourt une certaine distance. Imaginez que sportivement, par un jour très venteux, vous courez à travers la forêt et vous vous arrêtez. Il est clair que vous sentez le vent sur votre peau. Maintenant, imaginez la même situation par un jour totalement non venteux. Quand vous vous arrêtez, bien entendu, vous ne ressentez aucun air sur votre peau. Cependant, si vous reprenez votre course, vous ressentirez bien une sensation de frisson sur votre peau. Donc, c’est comme si il y avait du vent, bien que ce soit vous qui bougiez et non l’air, le résultat est le même.

On concevait le vent d’éther de manière analogue : l’éther demeure immobile, mais la terre se déplace en lui. Donc, il y aurait une sorte de vent dans la direction du mouvement de la terre et bien sûr, le vent transversal à la direction du mouvement pouvait à peine être mesuré.

Page 26: Traduction : Granat Yvan

26

Michelson et Morley ne prirent pas d’avion pour démontrer ce vent, mais bien la lumière. Si la lumière effectue un trajet allez et retour dans la direction de la terre, c’est analogue à un avion qui volerait avec le vent de dos puis de front. Une deuxième particule lumineuse qui voyagerait perpendiculairement prendrait moins de temps que la première, comme dans le cas de l’avion. Les deux scientifiques firent donc l’expérience suivante : ils prirent un disque et y installèrent un appareil qui était à mesure d’émettre quelques particules de lumière (oui, vous avez bien lu : il n’y a pas seulement des ondes lumineuses, mais aussi des particules de lumières, mais nous verrons ça plus tard). On fait voler une avec le vent d’éther et une autre perpendiculairement. Les particules de lumières sont réfléchies sur un miroir de telle manière qu’elles parcourent une fois la distance en aller et retour. Enfin, toutes deux sont amenées à un détecteur (télescope). Qu’espérait-on voir dans ce télescope ? Si vraiment une des deux particules avait été plus rapide que l’autre, alors, les deux particules auraient abouti au télescope avec un léger décalage. Mais cela aurait aussi impliqué que les hauts et les creux des ondes serait arrivée légèrement décalées et vous savez déjà ce que cela signifie : les hauts et les creux des ondes se seraient renforcés ou affaiblis. On aurait donc obtenu un modèle de lumière-obscurité, comme cela a déjà été expliqué dans le chapitre précédent. Mais cela ne se produit pas ! On répéta le mécanisme de recherche une fois encore sur une sorte de surface de mercure pour exclure toute influence extérieure, mais l’expérience échoua une fois encore. Georges Francis Fitzgerald (1851-1901) suggéra tout simplement que le vent d’éther est si puissant qu’il bouscule tout le long de sa direction. Ainsi, la particule lumineuse devrait parcourir une faible distance et devrait toucher la cible au même moment que les autres particules. Par la suite, un physicien néerlandais devait établir les transformations de Lorentz qui correspondent à ce phénomène et qui donc portent son nom. Celles-ci seront analysées plus complètement dans la section suivante. Mais, par la suite, des réflexions du physicien Albert Einstein l’amena à la conclusion que l’éther devait être considéré comme non existant. En principe, l’éther devait être un milieu dans lequel la lumière pourrait se déployer. Mais vous avez déjà appris que cette voie de transport ne fut plus nécessaire quand la théorie des ondes électromagnétiques a été établie. Une influence directe de l’éther sur la matière ne pouvait pas être démontrée (la contraction de la longueur n’était pas directement mesurable, mais seulement une explication pour le bref temps de parcours de la lumière), et très peu une influence sur les particules lumineuses. A ce sujet, Albert Einstein dit que l’éther n’avait plus aucun droit à l’existence. Pour le phénomène d’égalité de vitesse des particules de lumière, il avait déjà une autre explication dans le tiroir…

Page 27: Traduction : Granat Yvan

27

L’espace et le temps ne sont pas absolus – la transformation de Lorentz Il était très étonnant que la lumière quelque soit la manière dont elle vole, a toujours besoin du même temps. Le physicien néerlandais Hendrik Antoon Lorentz (1853-1928) et George Francis Fitzgerald sont arrivés à l’idée que la distance se raccourcit dans la direction du mouvement. Ainsi, il serait expliqué pourquoi les particules de lumières plus lentes qui ont été exposées au vent d’éther sont en fait tout aussi rapides que les particules plus véloces qui lui sont perpendiculaires. Les premières avaient simplement une plus courte distance à parcourir. Cela ne sonne pas seulement étrangement à nos oreilles, mais aussi à celles des chercheurs de l’époque. Mais cela devait constituer le fondement de la théorie de la relativité d’Einstein. Lorentz alla encore plus loin : il ne parvint pas seulement à un raccourcissement des longueurs, mais aussi à un allongement du temps ! Si vous voulez vous-même calculer, dans quelle mesure vous vieillissez plus lentement quand vous voyagez dans une rue, vous pouvez recourir aux formules suivantes : Dans tous les cas : v = la vitesse des objets en km/s (par exemple d’une voiture). c = vitesse de la lumière (=300.000 km/s).

1. Modification des longueurs :

Où : Srelatif = la longueur quand l’objet est en mouvement. S = la longueur quand l’objet demeure immobile.

2. Modification du temps :

Page 28: Traduction : Granat Yvan

28

Où : trelatif = temps quand l’objet est en mouvement. t = temps quand l’objet demeure immobile.

3. Modification de masse : Le changement de masse n’appartient directement pas aux transformations de Lorentz. Cependant, il s’inscrit bien dans ce contexte. En fait, il faut constater qu’à une augmentation de vitesse, correspond une augmentation de masse.

Où : mrelatif = masse quand l’objet est en mouvement. m =masse quand l’objet demeure immobile. Un exemple peut montrer la portée des formules : vous roulez à 100 km/h sur une route nationale. Celle correspond à une vitesse par seconde de : 100 km/h :60 :60≈0.028km/s Tandis que pour un observateur qui demeure immobile sur la route, une heure (=60 minutes = 3600 secondes) passe, pour vous, le temps passé est plutôt de :

√ (

)

( )

Donc, pour vous, le temps se raccourcit de seulement 0,0000000000146 secondes. Vous le voyez : la théorie de la relativité n’est pas précisément une source d’éternelle jeunesse. Un autre fait résulte des transformations de Lorentz : le raccourcissement de la distance, le ralentissement du temps, l’augmentation de la masse, tout cela ne s’applique que dans le sens du mouvement des objets. Cela veut dire : des objets qui se trouvent à gauche ou à droite de l’objet en mouvement ne sont pas concernés par les transformations de Lorentz ! La théorie de la relativité d’Einstein, qui sera expliquée plus complètement dans le prochain chapitre, résulte de ces phénomènes. Ici aussi, le fondement en est la constance de la vitesse de la lumière. Résumé La vitesse de la lumière n’est pas infinie mais très considérable : environ 300.000 km/s. La distance que parcourt la lumière en un an est appelée année-lumière. Pour prouver l’éther, Michelson et Morley réalisèrent l’expérience qu’ils ont baptisée expérience d’interférométrie. Elle est basée sur le fait que des particules qui ont

Page 29: Traduction : Granat Yvan

29

affaire à des vents de fronts et de dos ont besoin, pour la même distance, de plus de temps que si elles doivent seulement faire face à des vents de côté. Quand le résultat d’interférence attendu n’apparut pas, Hendrik Antoon Lorentz et Georges Francis Fitzgerald commencèrent à se demander si la distance dans la direction du vent n’était pas tout simplement raccourcie. Ainsi, l’arrivée simultanée des particules serait à nouveau expliquée. De ces réflexions, résultèrent les transformations de Lorentz.

Page 30: Traduction : Granat Yvan

30

Chapitre 5 : Albert Einstein – la théorie de relativité restreinte

Albert Einstein (1879-1955) est le seul physicien qui ait acquis une telle réputation planétaire. Il est connu de chaque enfant, tout comme la formule E=mc² qu’il a développée. Il est devenu célèbre par sa théorie de la relativité avec laquelle j’aimerais vous familiariser. Elle sonne étrangement non seulement pour nous, mais aussi pour les pour les membres de la communauté scientifique de son époque. Ainsi, il ne reçut pas le prix Nobel pour sa théorie mondialement connue, comme cela est souvent faussement supposé, mais pour sa contribution aux dénommé effet photoélectrique.

La vitesse de la lumière comme constante immuable. Imaginez : vous roulez dans un train à une vitesse de 50 km/h. En outre, vous vous déplacez à du 5 km/h dans la même direction que le train. Sur le quai, se tient une autre personne qui observe la situation. Elle établira que vous vous déplacez à une vitesse de 50 km/h + 5 km/h soit 55 km/h. Par contre, vous pensez toujours courir à une vitesse de seulement 5 km/h. Donc, la vitesse est purement subjective. Nous ne pouvons pas établir objectivement quelle est la grandeur de notre vitesse puisque l’observation dépend du point de référence. La vitesse est donc relative.

Page 31: Traduction : Granat Yvan

31

Un autre exemple : Maintenant, vous vous déplacez, à 5 km/h dans le sens contraire d’un train qui roule à la vitesse de 50 km/h. Pendant que vous courez à du 5 km/h, la personne extérieure l’impression que vous vous déplacez à une vitesse 50 km/h – 5 km/=45 km/h. Vous le voyez, l’impression de la vitesse à laquelle nous nous déplaçons est relative. Ici aussi, il n’est pas possible déterminer une vitesse absolue. Autre question, pouvez-vous déterminer la vitesse de notre terre dans l’univers ? Vous pourriez seulement indiquer la vitesse de notre terre en relation avec une autre planète. Mais cette planète de référence aura aussi une vitesse. En outre, nous ne pouvons pas exclure que notre univers est aussi soumis à un mouvement déterminé etc. Dès lors, nous ne pouvons jamais établir à quelle vitesse absolue nous nous déplaçons. Einstein formula ceci en deux postulats : Premier postulat : pour tout observateur, la vitesse de la lumière est partout et

toujours identique. Deuxième postulat : nous ne pouvons jamais établir à quelle vitesse absolue nous

nous déplaçons, donc nous pouvons supposer que nous sommes immobiles et que notre environnement est en mouvement.

Maintenant, représentons-nous à nouveau l’expérience réalisée plus haut. Mais à la différence de celle-ci, cette fois, c’est une particule lumineuse qui est en mouvement. Elle est émise par une source lumineuse au milieu d’un wagon. A quoi nous attendons-nous ? Il peut être admis que la lumière s’envolera de la source à une vitesse de 300.000 km/s. Le train circule à une vitesse de 50 km/h soit 0.014 km/s (50 km/h /60 minutes/60 secondes = environ 0.014km/s). Parallèlement à notre expérience précédente nous nous attendrions à ce qui suit : Pour atteindre la paroi droite du wagon, la lumière a besoin d’un peu plus de temps que pour atteindre la paroi gauche, puisque la première s’approche de la source lumineuse tandis que l’autre s’en éloigne. Albert Einstein qui suit l’expérience sur le quai constate en fait une divergence entre le moment de l’arrivée de la lumière à la paroi droite du wagon et celui de l’arrivé à sa paroi gauche. Pour un passager du train qui mesure la vitesse de la lumière, voici ce que cela signifie: Nous supposons qu’il soit un physicien diplômé et qu’il connaisse la vitesse de la lumière, 300.000 km/s. En outre, le deuxième postulat d’Einstein qui affirme que la vitesse absolue ne peut être révélée, ne lui est pas inconnu. Il lui sera relativement facile de déterminer la vitesse du train. Mais il ne pourra pas dire à quelle vitesse la terre voyage à travers l’univers, encore moins quelle est la vitesse de l’ensemble de l’univers. Dès lors, la vitesse du train est pour l’instant non significative pour lui. Ici, la distance entre source lumineuse et paroi du train est la même à gauche et à droite. Cependant, puisque la lumière arrive aux parois à des moments différents (comme notre Einstein situé à l’extérieur l’a noté), elle devrait aussi avoir des vitesses différentes (puisqu’il ne s’intéresse pas à la vitesse propre, le passager, quant à lui, peut en déduire qu’il est immobile). Pourtant, comme le dit le postulat d’Einstein : la vitesse de la lumière est constante et ne se modifie pas. Si maintenant, on réalise l’expérience dans la réalité, on constate ceci: La lumière s’étend dans toutes les directions à la même vitesse. Quelque soit la vitesse du train, la vitesse de la lumière demeure toujours identiques et la lumière attendra les parois simultanément (du point de vue des passagers du train). Et que voit notre observateur extérieur ? Il établit la vitesse de la lumière à 300.000 km/s.

Page 32: Traduction : Granat Yvan

32

mais en même temps, il constate que la lumière prend un peu moins de temps pour atteindre la paroi gauche que pour atteindre la paroi droite.

Lequel des deux a raison ? L’observateur intérieur qui voit que les deux rayons lumineux touchent simultanément les deux parois ou l’observateur extérieur qui voit que les deux parois sont atteintes par les particules lumineuses à des moments différents ? La réponse est aussi simple qu’étonnante : ils ont raison tout les deux ! Bienvenue dans le monde fou de la théorie de la relativité. Notre concept de la simultanéité va être renié. L’espace et le temps ne sont plus ce qu’ils étaient autrefois. Ils ne sont pas constants, ils sont variables ! On appelle « théorie de relativité restreinte » la partie de la théorie de la relativité qui s’occupe de ce phénomène. Analysons ce résultat un peu plus en détail : Si pour notre observateur dans le wagon, les deux rayons lumineux arrivent en même temps et que ce n’est pas le cas pour l’observateur extérieur, il en découle obligatoirement que l’espace a subi un changement. Par ce changement, Albert peut expliquer l’arrivée simultanée des quantas à l’intérieur du train. Avec quelques réflexions supplémentaires résultant de la modification de l’espace, on arrive à la conclusion que le temps doit aussi avoir connu une modification. Pourquoi n’a-t-on plus besoin de l’éther D’abord, j’aimerais vous expliquer ce que j’ai dit plus haut par un exemple : Considérons à nouveau un train avec un observateur. La longueur du wagon est de 600.000 kms (oui oui, pas complètement réaliste, mais cela permet des calculs plus faciles) et qui se déplace à du 150.000 km/s. Une fois encore, en son milieu se trouve

Page 33: Traduction : Granat Yvan

33

un appareil qui émet des particules lumineuses. Donc une telle particule doit parcourir un demi-wagon, soit 300.000 kms pour atteindre les parois du wagon et encore une fois 300.000 kms pour retourner à l’émetteur où il est réfléchit par un miroir mural. De son côté, l’appareil de mesure dispose d’un détecteur qui signale si la particule est revenue.

Soient les données : v=150.000 km/s, s=2x300.000 km par particule, c=300.000 km/s. Albert Einstein attend sur les rails et observe la situation. Les quantas lumineux sont envoyés et le résultat est très étonnant : bien que pour chaque observateur, les quantas arrivent à nouveau simultanément, la lumière a eu un temps de parcours différent. Le passager constate une arrivée simultanée après deux secondes puisqu’avec une vitesse de la lumière de 300.000 km/s, les particules ont chaque fois besoin d’exactement 2 secondes pour une distance aller-retour de 600.000 kms. Pour Albert, cela paraît différent : pour lui, la vitesse de la lumière s’élève aussi à 300.000 km/s. cependant, la distance que la lumière doit parcourir est un peu plus longue. Considérons uniquement la particule droite. Elle vole tout d’abord dans la direction du train. Donc, elle doit d’abord rattraper le mur qui « vole » constamment devant la particule. Dans tous les cas, cette distance est supérieure à 300.000 kms. Il est vrai que le trajet de retour est plus court parce que le détecteur se dirige maintenant vers des particules volant dans un sens opposé à la direction du train. Mais ce raccourcissement des distances ne peut compenser l’allongement des distances précédant. Résultat : pour Einstein, la lumière a maintenant besoin de 2.67 secondes (bien sûr, il en va de même pour la particule gauche). Après de profondes réflexions, Albert parvint à la solution du problème : si la vitesse de la lumière est toujours et partout identique, mais que, pour lui-même, la lumière a besoin de 2.67 seconde pour atteindre les parois alors que pour les passagers, elle n’a besoin que de deux secondes, alors les distances des parois au détecteur doivent être raccourcies. Ainsi, La lumière peut traverser cette distance comprimée en deux secondes. Les transformations de Lorentz nous disent quelle est l’importance de cette compression :

Page 34: Traduction : Granat Yvan

34

( )

( )

Les distances « train – paroi droite » et « train – paroi gauche » sont donc chacune raccourcies d’environ 40.000 kms. Mais de cela résulte un nouveau problème, celui du temps. Si la distance totale parcourue par les particules est vraiment de 600.000 kms, alors on peut facilement calculer le temps qu’a besoin la lumière pour lz

traverser, cela donne la formule :

.

La vitesse v d’un objet (par exemple d’une voiture) est donnée par la division de la distance s qu’il parcourt par le temps t qu’il a besoin pour cela. On peut facilement

exprimer cette formule en fonction de t :

En l’appliquant à nos données on obtient :

Mais Albert a calculé que chaque distance avait été un peu réduite (d’environ 40.000 kms). Pour cette distance, la lumière doit avoir besoin de moins de temps que pour 300.000 kms ! Pourtant, l’observateur à l’intérieur confirme une durée de deux secondes. Albert en conclut : l’heure du passager a passé un peu plus lentement ! On peut aussi calculer ceci :

( )

( )

Quand pour Albert, une seconde passe, il ne se passe que 0.87 seconde pour le passager. S’il se passe deux secondes à l’extérieur, il ne se passe logiquement que 0.87*2=1,74 secondes pour le passager. On peut introduire ce concept dans de calcul de vitesse. En fait, on retrouve ainsi la vitesse de la lumière :

(

√ )

( √ )

Résultat étonnant : pendant que le voyageur calcule une distance « mur-appareil d’émission » de 300.000 kms, la distance selon le point de vue d’Albert a été en vérité plus courte à savoir environ seulement 260.000 kms. Et pendant que pour le passager, il s’est déroulé un temps d’une seconde, pour Albert, il ne s’est déroulé que 0.87 secondes Ainsi, à l’intérieur du train, le temps passe plus lentement ! Conclusion logique : Le processus de vieillissement du passager est aussi ralenti. Ce phénomène est connu par le paradoxe des jumeaux. Si un des deux frères embarque dans une fusée interstellaire et avec elle, voyage à travers l’univers à une vitesse proche de celle de la lumière, après quelques temps, il fera une effrayante constatation quand il sera de retour sur terre : Alors que ce jeune homme descend de la fusée, son frère

Page 35: Traduction : Granat Yvan

35

qui l’accueille est âgé de plus de 80 ans. Pour celui-ci, le temps à l’extérieur de la fusée s’est déroulé « normalement »

Georges Francis Fitzgerald était d’avis que le vent d’éther pouvait comprimer une distance et ainsi les particules lumineuses pourraient arriver simultanément malgré le vent de face et le vent latéral. Mais on admet que le vent d’éther n’existe pas, il n’est pas surprenant que la lumière parcourt les deux distances dans un temps identique. En effet, il n’existe rien qui freine la lumière. Mais cette évidence n’apparaît manifeste qu’au premier coup d’œil. Si on y regarde d’un peu plus près, il faut constater une chose d’étrange : la terre est en mouvement et tourne autour du soleil. Comme le graphique le montre, une des particules lumineuses doit parcourir une plus longue distance que l’autre. La particule qui vole en vertical ne suit aucune ligne droite, mais doit parcourir une distance diagonale. Cependant, les deux particules arrivent quand même simultanément. Pour à nouveau, égaliser mathématiquement cette divergence, la longueur du vol horizontal doit être légèrement raccourcie. Je vous rappelle qu’on ne doit tout simplement pas raccourcir la trajectoire verticale ! La théorie de la relativité s’applique seulement à des objets qui se trouvent à droite ou à gauche de cette trajectoire, des trajectoires qui sont perpendiculaires à la direction du vol ne sont pas concernées par les effets de la relativité. Donc, même si l’éther doit être considéré comme non existant, une distance doit être comprimée, car sinon, l’arrivée simultanée des particules ne pourrait être expliquée.

Page 36: Traduction : Granat Yvan

36

E=mc² et le problème de la masse et de l’énergie. Tout d’abord, j’aimerais expliquer deux notions qui sont souvent utilisées, fréquemment sans en connaître leur signification exacte. Commençons par la force : selon la mécanique newtonienne, la force est l’accélération qui agit sur une masse. D’après Newton, chaque corps a la pulsion interne de se mouvoir en ligne droite et de manière uniforme. Un corps fait cela tant qu’une force n’intervient pas. Une pomme tombe sur la terre et y reste couchée. La force de gravité empêche le déplacement linéaire uniforme. Si je jette une balle, j’élève sa vitesse (je l’accélère), si je l’attrape, je la freine (accélération négative). La force (F) est donc une accélération a qui agit sur une masse :

Pendant que j’exerce une force sur un corps et que je le déplace sur une distance s, j’y applique de l’énergie (E). Ainsi, le deuxième concept est expliqué :

L’énergie est donc une force que j’exerce sur une distance déterminée. Par accélération, on décrit physiquement le phénomène du temps nécessaire pour atteindre une vitesse :

Ainsi si j’accélère et qu’en dix secondes, j’atteins les 50 m/s, j’ai réalisé une accélération de 5m/s². A partir de maintenant, la vitesse finale atteinte sera indiqué par l’index « fin ». Dans l’équation ci-dessus, on remplace a et on obtient :

Par la substitution de F dans l’équation de l’énergie on obtient :

Dans l’équation ci-dessus, s peut aussi être remanié. On dispose d’un mouvement rectiligne uniforme, cela donne pour s :

Ainsi on obtient pour E :

Page 37: Traduction : Granat Yvan

37

Une particule lumineuse a la propriété d’avoir toujours la même vitesse, n’importe quand et n’importe où, on mesure que : =v=c

Si on met cette donnée dans l’équation de l’énergie, on obtient quelque chose qui vous est sûrement déjà connu :

Dans les séries de science-fiction, il est constamment décrit comment des vaisseaux spatiaux dépassent la vitesse de la lumière et vole à plus de 300.000 km/s. Mais cela ne fonctionne que dans le vaisseau spatial «Enterprise ». Malheureusement, cela a très peu de choses à faire avec la réalité et encore moins avec la théorie de la relativité. En effet, la théorie d’Albert Einstein nous informe d’un fait effrayant : nous ne pourrons jamais voler à la vitesse de la lumière. Il y aurait un besoin infiniment grand d’énergie, la taille de chaque objet se compresserait infiniment et la masse des corps serait infiniment grande. En voici la preuve basée sur les transformations de Lorentz : 1. Problème de la distance

√ (

)

( )

2. Problème du temps

√ (

)

( )

3. Problème de la masse

√ (

)

( )

Il est effectivement possible d’accélérer des particules à une vitesse proche de celle de la lumière. Cela se produit dans l’accélérateur de particules du centre de recherches atomiques, le CERN, à Genève. Par exemple, on a constaté qu’un électron présente au repos une masse plus faible qu’en accélération. Comment peut-on expliquer cela ? Je vous ai déjà familiarisé avec la structure atomique de notre monde. Un individu pèse plus lourd sur la terre que sur la lune, parce qu’ici, la gravité y est plus importante. Cependant, la masse d’un individu demeure identique car le nombre d’atomes qui constituent son corps n’est soumis à aucun changement. Mais

Page 38: Traduction : Granat Yvan

38

comme on l’a démontré au CERN, quand on est en mouvement, la masse semble augmenter comme si des atomes provenant du néant étaient ajoutés. Cependant, aucune énergie extérieure ne s’ajoute au corps accéléré. Peut-être cela pourrait-il signifier que de l’énergie peut-être convertie en masse ? Albert Einstein dit « oui ! ». Cela résulte directement de sa formule E=mc². Entretemps, il a été démontré que l’on peut obtenir une très grande quantité d’énergie à partir de la masse. Chaque centrale nucléaire est bâtie sur ce principe. Mais, réciproquement, on peut aussi gagner de la masse à partir de l’énergie. Si on chauffe un morceau de fer, le métal réchauffé pèse plus qu’auparavant car on y a ajouté de l’énergie et à de l’énergie, correspond de la masse. Des expériences de ce type ont été menées au CERN, de la pure énergie est intégralement devenue de la matière. Afin d’être complet, il convient de mentionner ici la théorie des tachyons, même si elle repose sur des fondements douteux. Selon cette idée, les tachyons sont des particules qui se déplacent plus rapidement que la lumière. Gary Feinberg a recherché dans la théorie de la relativité des circonstances de vitesses supra lumineuses et a constaté que la théorie permet parfaitement de tels cas. Mais des particules avec une vitesse supra lumineuse ne devraient pas avoir de masse (comme les particules lumineuses) et ne pourraient réduire leur vitesse en dessous de celle de la lumière. Donc, pour elle aussi, la barrière d’environ 300.000 km/s serait infranchissable, elle se tient juste de l’autre côté de la barrière. Bien que cette théorie soit mathématiquement fondée, ces particules n’ont pas pu être détectées jusqu’à présent. Résumé La vitesse est mesurable en terme relatif et non en terme absolu. Nous ne pouvons que constater à quelle vitesse nous nous déplaçons par rapport à un point de référence. Mais puisque nous ne pouvons pas nous baser sur un arrêt de ce point de référence, notre vitesse absolue n’est pas mesurable. Nous pouvons donc aussi parfaitement en déduire que nous sommes immobiles et que l’univers est en mouvement autour de nous. Du fait que la vitesse de la lumière est constante, il résulte le phénomène de concentration du temps et de l’espace. Une augmentation de la vitesse d’un objet n’est possible que par un apport d’énergie. Mais, puisque selon Einstein, l’énergie est équivalente à la masse (E=mc²), une augmentation de la masse doit correspondre à une augmentation de la vitesse. Un franchissement de la vitesse de la lumière n’est pas possible. Cependant, il y pourrait exister, dans la nature, des particules dont la vitesse est supra lumineuse. Mais ces hypothétiques particules tachyoniques ne pourraient pas descendre en dessous de la vitesse de la lumière.

Page 39: Traduction : Granat Yvan

39

Chapitre 6 : Qu’est-ce que la gravitation ? – la théorie de la relativité générale Les équations de Newton expliquaient comment les planètes tournent autour du soleil et cela de manière très complète. Mais il y avait un problème que Newton ne pouvait pas résoudre. Outre le fait qu’il ne pouvait pas déterminer en quoi consistait la gravité, il lui était aussi impossible de résoudre les erreurs dans l’orbite de Mercure, la planète la plus proche du soleil. A chacune de ses révolutions, son orbite est légèrement décalée par rapport à la précédente. La théorie de la gravitation existante ne pouvait pas prévoir correctement ces écarts. On supputait l’existence d’une planète supplémentaire que l’on n’avait pas encore découverte et qui expliquerait cet écart (on l’appela « Vulcain »). Elle est aujourd’hui très connue par la série « vaisseau Enterprise » dont un membre de l’équipage, Mr Spock, était originaire de cette planète. Einstein résolut le problème et expliqua incidemment ce qu’est finalement la force de gravitation. Le continuum espace-temps. Pour cela, nous devons nous consacrer plus complètement au dénommé continuum espace-temps. Pour l’instant, l’espace existe dans les trois dimensions connues : longueur, largeur et hauteur. Avec ces coordonnées, nous pouvons parfaitement établir les coordonnées de n’importe quel point x. Pour pouvoir complètement parler d’un point dans l’histoire, outre ces données, nous avons besoin d’une quatrième : le temps. Jusqu’ici, cela nous semble logique. Maintenant, imaginez un jeu d’ombres. Les habitants d’une cité-jeu d’ombre ne connaissent pas la profondeur, ce qui signifie qu’ils n’ont que deux dimensions à leur disposition : la longueur et la largeur. Pour ces êtres, il est presque inimaginable qu’il y en ait une troisième : la profondeur. Ce qui pour nous est totalement évident, est totalement étrange pour ces êtres. Et comme pour ces êtres, il est tout-à-fait difficile de s’imaginer une troisième dimension, ils nous presque impossible de nous en représenter une quatrième. Mais Albert le dit clairement : Comme la longueur, la largeur et la hauteur sont inséparablement associées, le temps est, lui aussi, intimement relié à ces trois dimensions : c’est le dénommé continuum espace-temps. Chaque masse, qu’elle soit grande ou petite, courbe ce continuum. Si on peut dire, la masse fait une bosse dans l’espace temps. Comme cela a déjà été expliqué, chaque masse est amenée à réaliser un mouvement rectiligne uniforme. Si nous voulons l’empêcher, nous devons appliquer une force pour dévier, freiner ou accélérer la masse. Les planètes ont aussi l’impulsion de suivre un mouvement rectiligne uniforme, mais ils s’y sont empêchés car la force de gravitation des autres planètes et des étoiles (le soleil, par exemple) exerce une force influençant les autres astres. Albert Einstein interprétait la gravitation comme une déformation (donc une courbure) de l’espace-temps. Imaginez une couverture tendue. Au milieu, placez-y un lourd objet rond de telle façon que la couverture s’enfonce. Maintenant, prenez par exemple une bille et faites la tourner autour de l’objet du milieu. La bille gravitera autour du centre ce qui modifie la forme de son orbite de façon permanente, finalement, elle tombera au centre. Naturellement, la couverture peut symboliser l’espace-temps et les billes symbolisent les planètes.

Page 40: Traduction : Granat Yvan

40

Ainsi, Albert Einstein a résolu le problème de la gravitation et a simultanément réfuté certaines lois de Newton. Cependant, elles sont encore utilisées aujourd’hui pour des raisons de facilités. En effet, les formules d’Einstein sont trop complexes et la différence dans les mesures est minimale. Le comportement de la lumière dans l’espace-temps – le principe d’équivalence. Imaginez, vous montez dans un ascenseur. Celui-ci n’est pas situé à une coordonnée x quelconque, mais à un point précis. Il s’agit d’un ascenseur qui circule au milieu de l’infinité de l’espace. Normalement, il n’y a pas ici de force de gravité. Donc, vous flottez dans votre ascenseur. Imaginez encore, maintenant, l’ascenseur démarre. Quand elle atteint une vitesse déterminée, vous ne pouvez plus décider si vous voyagez dans un ascenseur vers le haut, ou si, brusquement, une force plus importante a instillé la force de gravité dans l’ascenseur. Les deux phénomènes (accélération vers le haut et force de gravité) sont parfaitement identiques. C’est ce qu’on appelle le principe d’équivalence.

Page 41: Traduction : Granat Yvan

41

Imaginez encore, une particule lumineuse tombe a l’intérieur de la cabine par un petit trou. Que voyez-vous ? La particule lumineuse vole en ligne droite. Cependant, vous vous déplacez avec l’ascenseur vers le haut et soudain, il vous semble que la particule se courbe par rapport à l’ascenseur.

Si l’accélération de l’ascenseur et la gravité sont équivalentes, alors peut-être un tel effet lumineux devrait-il aussi survenir avec des corps qui produisent de la gravité ? La réponse à la question est oui ! En effet, la lumière est courbée par la terre ou par d’autres objets. Qu’est ce que cela implique ? Et bien, on croyait auparavant qu’en regardant le ciel, on pouvait cartographier la position d’une étoile et transposer les positions de ciel sur une carte. Maintenant, cela ne fonctionne plus ! Si une autre planète courbe la lumière, l’étoile peut en fait être située à des endroits tout à fait différents.

Page 42: Traduction : Granat Yvan

42

L’illusion suivante l’illustre :

La plus grande erreur d’Einstein. Comme résultante de sa théorie de la relativité, Albert Einstein fit une découverte effrayante : l’espace n’est pas constant, mais il s’étend ! Cette découverte était révolutionnaire du temps d’Einstein. Cependant, le tableau d’un univers statique était trop ancré dans l’intellect des gens. Einstein, lui non plus, ne pouvait pas se reconnaître dans un univers en expansion et, pour cela, corrigea ses équations. Il y introduit une constante qui contrebalançait la dite expansion. Il s’agit de la « constante cosmologique». L’astronome américain Edwin Hubble (1889-1953) a découvert ce qui devait plus tard être appelé l’effet Hubble. Ce fut la preuve convaincante qu’Albert Einstein était dans l’erreur : l’univers s’étend ! Einstein considérait la constante cosmologique comme la plus grande erreur de sa vie. Qu’est-ce que l’effet Hubble ? Tout d’abord, on doit savoir qu’Hubble a combiné deux phénomènes physiques : l’effet Doppler et les raies spectrales dans le sceptre lumineux. Chaque jour, nous pouvons observer l’effet Doppler par nous-mêmes. Si nous stationnons à un carrefour et que nous entendons un camion de pompiers s’approcher avec des lumières bleues et des sirènes, nous faisons une constatation remarquable. Au fur et à mesure que le camion s’approche de nous, le son de la sirène nous semble de plus en plus aigu. Il ne s’agit pas d’imagination, mais d’un résultat logique si on considère le son plus attentivement. Ce dernier consiste en ondes qui se répandent dans un milieu, généralement l’air. Ces ondes sont émises par la sirène à des intervalles réguliers et parviennent à nos oreilles où les données

Page 43: Traduction : Granat Yvan

43

sont retravaillées par notre cerveau. Au fur et à mesure que le camion approche, de plus en plus d’ondes sonores parviennent à nos oreilles par unité de temps. Supposons que le camion est encore éloigné de nous et envoie des ondes sonores. Ces ondes parviennent à nos oreilles un peu plus tard. Mais entretemps, le camion s’en encore quelque peu approché de nous. Effectivement, les ondes qui sont réceptionnées à présent, ont été émises plus tard. Mais elles doivent aussi parcourir une plus courte distance jusqu’à nous. Ainsi, ces ondes parviennent presqu’en même que les autres ondes émises plus tôt. Selon ce principe, au fur et à mesure que le camion approche, de plus en plus d’ondes parviennent à nos oreilles. S’il en est ainsi, de plus en plus d’ondes parviennent à nos oreilles, le son est de plus en plus aigu. Naturellement, il en va de même en sens inverse : Quand le camion s’est éloigné de nous, moins d’ondes nous parviennent par unité de temps et le son devient de plus en plus grave. De même, la lumière consiste en ondes. Pourrait-on, dans ce cadre faire des expériences similaires ? Il se trouve qu’en effet, un phénomène similaire peut être enregistré. A cela, les raies spectrales dans le spectre lumineux peuvent aider. On prend n’importe quel élément, on l’irradie avec de la lumière blanche et on envoie le faisceau lumineux qui est réfléchi par le corps à travers un prisme. On analyse le spectre de la lumière. Par exemple, le résultat peut être les couleurs de l’arc en ciel. Mais on décèle de petites bandes noires à certains endroits. Dans ces zones, la lumière de l’élément irradié a été absorbée et n’a pas été réfléchie. Chaque élément a une raie spectrale caractéristique. On peut dire que les raies sont les empreintes digitales de chaque élément. De cette manière, on peut aussi établir de quels éléments sont composées des étoiles éloignées sans devoir y pénétrer soi même. On analyse facilement la lumière incidente dans un spectre. On examine encore son spectre et on constate que dans le côté gauche de ce dernier, (le domaine de lumière ultraviolette), les écarts entre creux et sommets des ondes sont très petits. Au fur et à mesure que l’on se dirige vers la droite dans le sceptre lumineux (le domaine de la lumière infrarouge), les distances entre haut et creux s’accroissent. Cela pourrait simplifier : il y a moins d’ondes par unité de temps dans le côté droit du spectre que dans son côté gauche, mais cela, je vous l’ai déjà expliqué. Lorsqu’Hubble observa la lumière des galaxies lointaines, il vit que les raies spectrales des éléments étaient légèrement décalés vers le rouge c’est-à-dire vers le côté droit du spectre. A l’aide de l’effet Doppler, il pouvait s’expliquer cela : Les galaxies s’éloignent à la manière du camion de pompier. Ainsi, moins d’ondes par unité de temps parviennent à nos yeux. Entre les hauts et les creux des ondes, on doit trouver un plus grand écart. Conséquence de cet effet, les raies spectrales sont légèrement décalées vers le rouge, c’est-à-dire vers le côté droit du sceptre. Je n’ai pas consacré inutilement beaucoup de temps à l’explication de cet effet. Après tout, l’effet Hubble décrit une vision tout-à-fait nouvelle de notre monde. De l’expansion de l’univers, nous pouvons déduire qu’il a du exister un moment dans lequel l’ensemble de la masse de l’univers était concentrée en un point. Donc si l’univers a un début, a-t-il aussi une fin ? Quelle signification cela a-t-il pour la

Page 44: Traduction : Granat Yvan

44

physique quantique ? Peut-elle fournir des renseignements sur le passé ou le futur ? Après une série de questions-réponses, nous pourrons voir ce que dit la théorie quantique à ce sujet. Rendez-vous au chapitre suivant. Résumé Einstein créa le concept d’espace-temps, plus exactement celui du continuum espace-temps. Donc, les trois coordonnées d’espace et le temps sont entrelacés les uns aux autres de façon inséparables. Une masse, aussi petite soit-elle, courbe ce continuum espace-temps. Les déformations de l’espace-temps sont la cause des effets gravitationnels. En outre, Einstein découvrit que les champs inertiels et gravitationnels sont équivalents. Qu’un ascenseur monte sous l’effet de la force d’inertie ou qu’il soit exposé à un champ gravitationnel, cela ne fait aucune différence. Il en résulte la courbure de la lumière par des objets massifs. De ses réflexions, Einstein conclut qu’il devait exister une force motrice qui provoque l’expansion de l’univers. Pour empêcher cela, il introduisit une force contraire : la constante cosmologique. Mais, grâce à ses observations, Edwin Hubble put prouver l’expansion de l’univers, ce que réfutait la constante cosmologique.

Page 45: Traduction : Granat Yvan

45

Chapitre 7 : Le problème du corps noir– heure de naissance de la théorique quantique Avec la théorie ondulatoire, on peut décrire de nombreux phénomènes physiques, par exemple, la réfraction et la réflexion de la lumière sans oublier l’interférence et le modèle qui en résulte. Mais, plus d’une fois, nous avons du constater que régulièrement, des théories ne possèdent qu’une « courte demi-vie ». En effet, il y a des phénomènes qui ne peuvent pas être exactement décrits avec le modèle existant. Il en fut aussi ainsi avec la représentation de la lumière en tant qu’onde. Dans le cas du dénommé corps noir (black body), il produit une fausse prévision. Qu’est-ce qu’un corps noir ? Un corps noir est un corps qui n’émet aucun rayonnement, mais qui absorbe l’ensemble du rayonnement qui le rencontre. Par exemple, un miroir est le contraire d’un corps noir : il n’absorbe presque pas de rayons, mais les renvoie presque complètement, grâce à quoi, nous pouvons nous y mirer. A l’époque de Maxwell, on savait déjà que les atomes ont la capacité de capturer les ondes magnétiques et de les renvoyer (réflexion) comme celle de conserver les rayons capturés (absorption). Tout d’abord, il semble que, puisqu’un corps noir ne peut émettre de rayonnement, il absorbe chaque rayon incident et ne renvoie rien. Mais cela est faux. Il peut tout-à-fait produire du rayonnement, mais celui-ci peut seulement être généré par le corps lui-même et non présenter le résultat d’une réflexion du rayonnement environnant. Le soleil en constitue un exemple simple. Il est presqu’un corps noir parfait car il reflète à peine le rayonnement environnant et n’émet que le rayonnement qu’il a lui-même généré (par exemple la lumière visible). Bien sûr, en laboratoire, on ne peut pas créer de soleil. Dès lors, on utilise un « truc » pour créer un corps noir. On prend un tuyau noir et on en bouche chaque extrémité par une capsule. Dans une d’entre elles, on fait un petit trou. Le rayon que l’on génère à l’intérieur du tuyau peut traverser le trou et se diriger vers l’extérieur où il est capté par un appareil de mesure. La lumière qui, de l’extérieur, pénètre à l’intérieur du tuyau par le trou est de plus en plus réfléchie dans tous les sens par les parois internes du tuyau jusqu’à ce que l’entièreté de l’énergie lumineuse des atomes du tuyau soit absorbée. Ainsi, le rayon n’a aucune chance de quitter le tuyau. En conséquence de quoi, la lumière ne peut plus passer à l’extérieur. Le résultat est un corps noir de très bonne qualité.

Page 46: Traduction : Granat Yvan

46

En fonction de la théorie ondulatoire en vigueur à l’époque, on croyait aux faits suivants : plus un corps est chaud, plus il renferme de l’énergie. La chaleur n’est rien de plus qu’une quantité d’ondes électromagnétique que le corps émet. Plus la longueur d’onde de la lumière est courte, plus le rayonnement est riche en énergie et plus le corps nous parait chaud. Mais de là, découle un problème : au fur et à mesure que le corps chauffe, le rayonnement est de plus en plus énergétique. Théoriquement, il serait possible que la longueur d’onde raccourcisse indéfiniment. Mais cela signifie que l’énergie devient de plus en plus grande. A une longueur d’onde infiniment petite, correspond une quantité d’énergie infiniment grande. On appelle ce phénomène la « catastrophe ultraviolette ». Cette expression vient de la partie à haute énergie du spectre lumineux. On a mené une telle expérience avec un corps noir. Mais la catastrophe n’a pas eu lieu. Au lieu de cela, on constata qu’à partir d’une certaine courte longueur de l’onde, les émissions s’interrompaient tout simplement. Tout simplement, il n’y avait pas d’ondes encore plus courtes. Donc, on ne pouvait raccourcir les longueurs d’ondes à loisir. Au début, la cause de ce phénomène demeura obscure, on ne pouvait y trouver d’explication, mutisme scientifique. Le fait était simplement que cela ne pouvait être expliqué avec la théorie ondulatoire de la lumière. Mais, en 1900, le physicien allemand Max Planck (1848-1957) a pu résoudre le problème. Pour cela, on devait abandonner la conception d’un flux continu de l’énergie. Cela déplaisait à Planck lui-même. Mais toutes les autres tentatives d’explications qui furent suggérées échouèrent. En conséquence, Planck n’interprétait plus l’énergie lumineuse exclusivement comme une onde électromagnétique, laquelle pouvait continuellement produire n’importe quelle quantité d’énergie. Il s’agissait plutôt d’un flux discret d’énergie. Il pensait que l’énergie était quantifiée. Planck rénova la théorie des particules, il la modifia très profondément : l’énergie électromagnétique ne peut être fournie aux atomes de manière continue, mais seulement par paquet entier appelé quanta. En outre, chaque quanta est porteur d’une quantité d’énergie bien déterminée. Celle-ci dépend de la fréquence du rayonnement. Cela se traduit dans la formule E=h.v dans laquelle E est l’énergie du quanta, v la fréquence du rayon et h la dénommée constante de Planck. Cette dernière est une constante de la nature que j’expliquerai plus en détail. Puisque désormais, on savait que le rayonnement électromagnétique ne peut pas être fourni en quantité continue, mais seulement par paquet d’une énergie déterminée, on pouvait aussi expliquer la non-survenance de la catastrophe ultraviolette. Les atomes ne sont pas en mesure de mettre à disposition des paquets d’énergie souhaités avec l’énergie correspondante. Soit l’atome peut fournir une quantité E=h.v d’énergie, soit il ne le peut pas. Il ne peut émettre une faible quantité d’énergie de fréquence v qui correspondrait à un flux continu d’énergie. Si un atome veut fournir de l’énergie, il doit le faire par paquets entiers. Ce paquet a une énergie qui correspond à la fréquence multipliée par la constante de Planck. On ne trouvera jamais

un quanta de lumière qui ne fournira qu’une énergie de

. Ce serait seulement un

demi-quanta de la fréquence v. Mais des demi-quantas n’existent pas. Un quanta est un quanta et ne peut ni se diviser en deux ni se dédoubler. C’est la plus petite quantité d’énergie possible qui peut provenir d’une onde électromagnétique de fréquence v. Une source qui émet de la lumière à une fréquence v émet donc un tas de petits paquets d’énergie avec la quantité d’énergie décrite.

Page 47: Traduction : Granat Yvan

47

Si on veut comprendre la théorie quantique, il est logique que l’on doive vraiment avoir compris ce qu’est un quanta parce qu’il y a ici un élément fondamental : un quanta est un paquet d’énergie. Si nous avons une onde électromagnétique avec une fréquence déterminée, alors, son énergie ne peut être fournie de façon continue (par exemple à un atome), mais seulement par paquets entiers d’énergie. L’énergie d’un paquet correspond à la fréquence multiplié par une constante naturelle, dénommée constante de Planck. Réciproquement, un atome peut seulement émettre des paquets entiers d’énergie. De même, il ne lui est pas possible de produire un rayonnement continu, c'est-à-dire en n’importe quelle quantité. Le modèle atomique de Bohr Le modèle atomique de Bohr fut une conséquence logique de la théorique quantique de Max Planck. Vous vous souvenez : le modèle de Rutherford avait la propriété que des électrons pouvaient tourner autour du noyau dans n’importe quelle orbite. Mais déjà avant l’époque de la découverte de la théorie quantique, ce modèle donnait du souci aux physiciens. Si on représente vraiment les orbites des électrons comme des orbites planétaires, alors, selon les principes de la mécanique classique, l’électron aurait du tomber dans le noyau à cause de son émission d’énergie. Reprenons l’analogie avec la bille sur une couverture de caoutchouc et faisons orbiter une seconde balle. Après un certain temps, l’orbite deviendra de plus en plus courte jusqu’à ce que la balle en orbite s’écrase sur le noyau au repos. La physique quantique avait une explication pour cela, même si au début, beaucoup ne voulait pas l’accepter parce qu’elle équivalait à un amalgame de la physique classique avec les principes de la théorie quantique ce qui conduisait à une structure un peu bizarre.

Page 48: Traduction : Granat Yvan

48

Bohr soutenait plutôt l’idée des orbites planétaires, mais celles-ci n’étaient plus quelconques. En appliquant la théorie quantique à la structure de l’atome, il découvrit que les électrons ne pouvaient tourner autour du noyau que sur des orbites parfaitement déterminées. Chaque électron se déplace sur une de ces orbites. Pour s’écraser sur le noyau, l’électron devrait émettre de l’énergie. Mais celle-ci peut seulement être émise par paquets entiers. Maintenant, les orbites quantiques sont placées de telle manière qu’en cas de chute sur le noyau, un électron devrait fournir moins d’énergie que ce qui correspond à un quanta d’énergie. Mais puisqu’un quanta est un quanta et n’est pas divisible en deux, en trois, en quatre etc, il est impossible à un électron d’envoyer la quantité d’énergie nécessaire et il est condamné à demeurer sur son orbite. De cela, découle une toute nouvelle vue de l’atome avec une structure en pelure d’oignons. A chacune de ces couches qui entourent l’atome, il y a de la place pour un nombre déterminé d’électrons.

Les causes des raies dans le spectre lumineux Maintenant, vous savez que les électrons ne peuvent tourner autour du noyau que sur des orbites parfaitement déterminées. De plus, vous savez que les électrons, en raison de la

Page 49: Traduction : Granat Yvan

49

propriété de leurs orbites, ne peuvent pas facilement s’écraser sur le noyau. Cependant, il leur est possible de changer d’orbites. Ainsi, les effets d’absorption et d’émissions lumineuses peuvent être expliqués. Si un quanta rencontre un atome, celui-ci peut, avec l’énergie correspondante, fournir son énergie à un électron. Ce dernier a ainsi la force de passer d’une couche plus basse à une couche plus haute. De cette façon, le quanta est capté par l’électron et par là, il n’a aucune chance de s’envoler au-delà. Si nous répandons du gaz d’un certain élément (par exemple, de l’oxygène ou de l’hélium), que nous l’éclairons avec de la lumière blanche et que derrière l’amas de gaz, nous la décomposons dans ses couleurs spectrales nous constatons que les raie décrites plus haut émergent dans le spectre lumineux. Ici, l’explication réside dans l’excitation d’électrons. Certains quantas sont absorbés par le gaz et donc sont empêchés d’encore s’élever, tandis que d’autres paquets quantiques peuvent traverser le gaz sans entrave et former le spectre lumineux à l’autre bout. En outre, les quantas absorbés n’ont pas n’importe quelle énergie, mais précisément celle qui est nécessaire à élever l’électron d’un niveau d’énergie à l’autre. Mais, comme l’énergie d’un quanta est justement la fréquence multipliée par la constante de Planck, des fréquences précisément déterminées manquent toujours dans le spectre lumineux. La fréquence lumineuse découle directement de sa longueur d’ondes et par là, on peut aussi dire que des longueurs d’ondes déterminées manquent.

Réciproquement, un électron peut aussi tomber d’une orbite haute à une orbite plus basse et ainsi émettre un quanta. L’énergie du quanta qui en provient est rigoureusement exacte à la différence de niveau d’énergie entre l’orbite haute et l’orbite basse. Puisque l’énergie d’un quanta dépend exclusivement de la fréquence (donc de la longueur d’onde), il en résulte que la lumière est émise dans une longueur d’onde bien déterminée. Quelque chose de similaire se passe avec la matière fluorescente que nous connaissons par les chiffres d’un réveil : la

Page 50: Traduction : Granat Yvan

50

lumière tombe sur la matière, grâce à quoi, chaque ensemble d’électrons montent dans un état plus haut et plus riche en énergie. Si nous assombrissons la chambre, ces électrons retombent continuellement dans leur état initial et ainsi donnent leur énergie, que nous percevons comme de la lumière visible. Le résultat est un caractère brillant.

D’abord, des expériences confirmèrent aussi cette idée de l’atome et l’exactitude du modèle quantique. Au prochain chapitre, j’aimerais aller plus loin à ce sujet. Résumé Pour contourner la catastrophe ultraviolette au sein d’un corps noir, Max Planck a introduit le modèle de l’énergie par quanta. Ainsi, l’énergie ne peut pas être diffusée rn continu mais seulement par paquets dénommés quantas. Le contenu d’un quanta d’énergie correspond à la fréquence de la lumière multipliée par une constante naturelle, la constante de Planck. Le modèle atomique de Bohr trouve un usage à ce concept quantique et impose aux électrons des orbites bien déterminées au sein d’un atome. Quand un atome absorbe de l’énergie lumineuse, un électron est élevé à une couche supérieure. Par contre, si un électron émet de la lumière, il retombe d’une couche haute à une couche plus basse.

Page 51: Traduction : Granat Yvan

51

Chapitre 8 : Recherche expérimentale en physique quantique Grâce à la théorie quantique, on a pu résoudre de nombreux problèmes qu’avaient soulevés des expériences de physique. En outre, des expériences posèrent les fondements de théories scientifiques et ont fourni la preuve de l’exactitude du modèle quantique. Einstein et l’énigme de l’effet photoélectrique. La solution du mystère de l’effet photoélectrique devait conduire Albert Einstein aux plus grands honneurs. Pour cette performance et non pour sa théorie de relativité, il obtint le prix Nobel de physique en 1922. L’énigme que j’aimerais maintenant décrire préoccupait les scientifiques depuis déjà longtemps. Je pense que l’on peut comprendre pourquoi il en est ainsi. En effet, on avait constaté que des plaques métalliques sont chargé électriquement quand on les irradie avec de la lumière. Ce fait n’était pas étonnant en soi. On pensait déjà que par l’énergie de la lumière des électrons étaient arrachés de la surface du métal, d’où il résulte un manque d’électrons sur la plaque qui devient ainsi chargé d’électricité positive à l’occasion de quoi les électrons provoquent un champ d’électricité négative. Plusieurs expériences que l’on a menées avec diverses lumières et avec des intensités variables furent assez étonnantes. La base de cette expérience est un disque métallique que l’on irradie avec de la lumière. Des électrons sont arrachés du métal et ont ainsi une énergie déterminée. La vitesse à laquelle ceux-ci s’éloigne de la plaque peut être acceptée comme mesure de leur contenu en énergie. On parle aussi d’impulsion énergétique. En se basant sur la nature ondulatoire de la lumière, on peut effectivement élever la vitesse des électrons si on augmente l’intensité du rayonnement. Donc, il suffit que plus de rayonnement rouge rencontre la plaque métallique. Pourtant, une expérience de ce type montrait que par une augmentation du rayonnement rouge, il y avait bien plus d’électrons arrachés de la plaque. Cependant, ceux-ci indiquaient la même quantité d’énergie (soit une vitesse identique) qu’auparavant. Mais, si on changeait la fréquence de la lumière et on utilisait du rayonnement bleu (plus riche en énergie), les électrons émis avaient une énergie plus élevée. Ici aussi, il se trouvait qu’une augmentation de l’intensité du rayonnement avait pour seule conséquence une augmentation de l’émission d’électrons, mais pas un changement d’énergie au sein des électrons individuels. Grâce à certaines expériences, on pouvait conduire ces observations à leur point extrême : si on traite du métal avec un rayonnement de plus courte longueur d’ondes (soit à plus basse fréquence), certains atomes n’émettent aucun électron, quelque soit l’intensité de rayonnement que l’on applique. C’était illogique : car si la lumière est une onde porteuse d’énergie, alors, avec une augmentation de l’intensité lumineuse, on devrait toujours pouvoir apporter assez d’énergie pour extraire l’électron de l’atome. Si le rayonnement est fourni à l’électron de manière continue, après un certain temps, il pourrait « rassembler » assez d’énergie pour s’extraire de l’étreinte. Mais cela ne fonctionnait pas, au lieu cela, on constatait que déjà, une petite intensité de rayonnement à plus courte fréquence (le bleu

Page 52: Traduction : Granat Yvan

52

par exemple) suffisait pour détacher des électrons. Comment cela pouvait-il être ? Albert Einstein avait une réponse à ce sujet et peut-être avez-vous aussi une idée. Le fait que l’énergie des électrons émis ne dépende pas de l’intensité de la lumière mais seulement de sa longueur d’onde est une conséquence de la nature quantique du rayonnement électromagnétique. Pour détacher des électrons d’un atome, on a besoin d’une énergie déterminée. Celle-ci n’est pas rassemblée par l’électron au fil du temps, mais est recueillie en portions quantiques. Soit le rayonnement livre des quantas avec l’énergie correspondante, soit il ne le fait pas. Une intensification du rayonnement ne fait qu’augmenter le nombre de paquets quantiques, mais pas la quantité d’énergie de chacun d’eux. Seule une réduction de la longueur d’onde conduit à une augmentation de la fréquence et ainsi à des quanta plus riches en énergie. Ceux-ci amènent avec eux suffisamment d’énergie pour libérer l’électron de l’atome.

La cellule photo et la constante de Planck J’ai déjà souvent mentionné la constante naturelle h appelée constante de Planck. Maintenant, je vais expliquer plus complètement comment on est arrivé à ce nombre et ce que l’on conçoit à travers lui. Vous avez déjà lu certaines choses au sujet de la constitution atomique de la matière et des effets de la théorie quantique, ces connaissances vont être utilisées maintenant. Comme souvent, au début, il se trouve une expérience, la dénommée cellule photo. L’utilisation d’une électrode au césium constitue une possibilité pour une telle construction. Par exemple, celui-ci est relié au côté d’un tube et est irradié avec de la lumière (ou mieux, par une longueur d’onde). Vous savez déjà ce qui se passe. Si la lumière a la bonne fréquence (c'est-à-dire les quantas ont la bonne énergie), des électrons sont arraché de l’électrode au césium qui se charge positivement en raison du défaut d’électrons. En face de

Page 53: Traduction : Granat Yvan

53

l’électrode, on apporte une contre-électrode qui capte les électrons éjectés. Ainsi, par un excès d’électrons, à l’intérieur de la contre-électrode, celle-ci se charge négativement. Plus d’électrons sont éjectés d’un côté et sont ajoutés de l’autre côté, plus il est difficile pour les électrons négativement chargés d’échapper à la force d’attraction positive de l’électrode de caesium et de même de lutter contre la force répulsive de la contre-électrode négative. Plus d’électrons quittent un côté et rejoignent l’autre côté, plus est importante la charge positive de l’électrode en Césium et plus est importante la charge négative de la contre-électrode. Avec le temps, la croissance de chaque champ se ralentira car les électrons n’ont tout simplement plus la force d’échapper à la force du champ. A un certain moment, un équilibre est atteint. Il n’y a plus ni électrons qui quittent un côté ni électrons qui aboutissent à l’autre côté. Il s’établit un gradient de charge entre les deux côtés. Comme je l’ai déjà expliqué, on appelle cela tension. On l’indique en volt, une unité qui vous est surement connue grâce aux appareils électriques de votre ménage.

Par l’étude de l’effet photoélectrique (section précédente), vous avez déjà appris que des longueurs d’onde plus courtes (soit avec une énergie quantique plus importante) ont pour conséquence que les électrons quittent les structures atomique à plus grande vitesse. Nous avons pris cette impulsion (masse de l’électron multiplié par la vitesse) comme mesure de l’énergie de l’électron. On utilise ce paramètre avec la cellule photo : plus importante est l’énergie lumineuse, plus importante est la vitesse des électrons et plus importante est leur énergie. Mais si les électrons ont une plus haute vitesse, ils ont aussi une plus haute énergie pour contrer les champs de force qui se constituent des deux côtés. Cela a pour conséquence que les champs de force doivent être plus intenses pour parvenir à l’équilibre. Ainsi, la tension qui se manifeste constitue une mesure pour l’énergie des électrons. Plus importante est leur énergie, plus importante est la tension qui se manifeste. En physique, l’énergie d’un électron est mentionnée en électronvolt (eV). Il s’agit de l’énergie qu’un électron obtient s’il est accéléré dans un champ électrique. Par exemple, si nous établissons une tension de 1 volt et y plaçons un électron, celui-ci obtient une énergie d’un 1 eV. On l’exprime par la formule : où W est le travail (électrique), e est la charge élémentaire, soit la charge négative qu’un électron porte en lui dans la nature et U est le symbole de la tension appliquée. Comme e représente une constante, il est facile de

Page 54: Traduction : Granat Yvan

54

voir qu’une tension plus importante implique une augmentation proportionnelle du travail. Dès lors, ici, le travail ne représente rien de plus qu’un autre mot pour énergie. Maintenant, on peut mener l’expérience de la cellule photo. On prend du césium, on l’irradie avec de la lumière à différentes longueurs d’ondes et on note l’équilibre de tension qui s’établit. Puis, on change de matériel (on prend par exemple du lithium) et on répète l’expérience également avec différentes intensité électrique. Ensuite, on rassemble les résultats sur un diagramme où l’axe des X représente la fréquence et celui des Y le travail cinétique maximum (donc rien de plus que la tension d’équilibre qui se manifeste multiplié par la charge élémentaire d’un électron). On constate que pour chaque élément utilisé, une ligne droite apparaît. Chacune est parallèle aux autres. Une droite a une pente soit une valeur qui indique ce qu’il faut additionner ou soustraire à la valeur de y quand, sur l’axe des x, on se déplace d’une unité vers la droite. Cette valeur est facile à calculer en divisant la différence entre n’importe quelle paire de valeur de y sur la droite par la différence de leur valeur de x. On réalise cela avec les droites résultantes de l’expérience de la cellule photo. On obtient ainsi la valeur de la pente des droites. Celle-ci correspond exactement à la constante de Planck, une constante naturelle immuable. Grâce à cela, on peut maintenant facilement calculer l’importance de l’énergie d’un électron avec une matière et une fréquence lumineuse données. Chaque élément est une valeur propre que l’on peut mesurer : il s’agit la de la fonction de travail Wab. C’est l’énergie lumineuse qui doit être apportée pour pouvoir détacher l’électron de l’atome. Pourquoi il en est ainsi sera bientôt expliqué. C’est précisément parce que les électrons ne peuvent recevoir l’énergie lumineuse que par des valeurs quantiques. Ceux-ci doivent posséder l’énergie adéquate pour l’arracher. Ou le quantum lumineux a cette énergie, ou il ne l’a pas. Le palier d’énergie est exactement le point auquel le champ électrique commence lentement à s’établir (où donc les premiers électrons sont arrachés de la plaque). Il en découle la formule suivante : . Aujourd’hui, les cellules photo font partie intégrante de la vie quotidienne. Par exemple, elles sont utilisées dans les détecteurs de mouvement : D’une source, un faisceau lumineux est envoyé à une cellule photo dans laquelle un champ électrique s’établit. Maintenant, on relie les deux électrodes avec un fil métallique. Ainsi, des électrons s’y déplacent de l’électrode négative vers l’électrode positive. Ce courant électrique tend à atteindre la valeur du gradient de charge. Mais de plus en plus d’électrons sont arrachés de la plaque par la lumière. Ainsi, d’un côté, le gradient de tension est compensé par le flux d’électron. Cependant, de l’autre côté un nouveau gradient de tension continue à s’établir. Ce n’est qu’au moment où le rayonnement lumineux est interrompu que s’arrête l’arrachage des électrons, ce par quoi le flux d’électrons a la possibilité de compenser le gradient de tension. Après que la tension soit tombée à 0, le flux d’électron s’arrête. Cette interruption conduit à ce que un relais (une sorte d’interrupteur électriquement commandé) ferme, ce par quoi un autre appareil (par exemple une lampe, la sonnette d’entrée d’un magasin ou l’alarme d’une banque) est allumé (c’est donc une espèce d’interrupteur lumineux). Voila… Avec cela, vous avez aussi compris cette section. Jusqu’ici ce fut certainement, de loin, la plus difficile. Vous aviez besoin de connaissance sur les atomes et leur structure, sur les quantas et le transfert d’énergie. Vous avez du faire travailler votre imagination pour pouvoir comprendre l’expérience et certaines formules. Mais vos efforts en ont valu la

Page 55: Traduction : Granat Yvan

55

peine : grâce ce travail intensif dans cette section que d’ailleurs, je n’avais pas conçu avec tant de détails, vous n’avez pas seulement acquis des connaissances élémentaires de théorie quantique, mais vous les avez aussi appliquées. Vous pouvez clairement en être assez fier.

Franck, Hertz et l’exactitude de la théorie quantique. Pour la première fois, les deux physiciens James Franck (1882-1964) et Gustav Hertz (1887-1975) (à ne pas confondre avec le physicien Heinrich Hertz) parvinrent à démontrer expérimentalement l’exactitude de la théorique quantique. En 1925, cela leur valut le prix Nobel. La base de leur expérience est un tube empli de gaz. Par exemple, pour cela, on peut recourir à du gaz de mercure. La figure ci-dessous montre la structure du dispositif :

Une source d’électrons est installée du côté droit. Pour cela, on peut, par exemple, utiliser un filament. On établit une source de tension entre la source d’électrons et une grille métallique. Donc ici, aucun champ de tension n’est provoqué. Mais nous le plaçons au dessus d’une source de tension pour pouvoir le contrôler artificiellement. Du côté droit du dispositif, un disque métallique est fixé. Celui-ci est relié à un ampèremètre. Ce dernier, pour parler simplement, peut compter le nombre d’électrons qui atteignent le disque. Plus haute est la valeur de l’ampèremètre, plus important est le nombre d’électrons incidents. Il est clair que, plus élevé est le nombre d’électrons comptés en arrière, plus intensément, nous établissons le champ de tension en avant. Plus la tension est importante, plus importante est la charge positive de la grille métallique, ce qui en retour exercera une plus forte attraction sur les électrons négativement chargés. Ainsi, ceux-ci obtiennent une énergie cinétique (énergie de mouvement) supérieure et peuvent beaucoup plus facilement traverser le gaz de mercure environnant. L’expérience est menée avec différentes tensions et le résultat est transcrit dans un diagramme. Sur celui-ci la tension établie est portée sur l’axe des X et le nombre d’ampères (la force du courant) correspondant l’est sur l’axe des Y.

Page 56: Traduction : Granat Yvan

56

Tout d’abord, le résultat paraît très étonnant : dans l’ensemble, le nombre d’électrons incidents augmente bien. Mais il demeure toujours, ici et là, des points de décroissance dans ce décompte. Pour l’hélium, par exemple, ces chutes ont toujours lieu à 4.9 eV et à ses multiples, soit 9.8 eV, 14.7 ev,… Comment expliquer cela ? Cela repose fondamentalement sur les électrons des orbites des atomes de mercure. Ceux-ci peuvent seulement saisir des énergies en quantités quantiques, c’est-à-dire qu’ils ont besoin d’une portion d’énergie déterminée pour pouvoir sauter d’une orbite à l’autre. Cette énergie est apportée par les électrons incidents qui portent sur eux une énergie de 4.9 eV et qui aboutissent à l’électron de l’atome avec une force dite non élastique. L’électron saute ainsi d’une orbite à une autre, proche et plus haute. Par là, l’électron incident perd toute son énergie pendant que l’électron de l’atome possède une énergie supplémentaire équivalente à 4.9 eV. Ainsi, le nombre d’électrons qui arrivent diminue. En effet, maintenant, les uns ont maintenant donné l’énergie appropriée aux autres et ne peuvent plus poursuivre leur route. Mais si l’énergie nécessaire est de 4.9 eV, pourquoi, y trouve-t-on les creux comme aux valeurs multiples de ce nombre ? Les électrons pauvres en énergie peuvent naturellement être accélérés par un nouveau choc. Si le champ correspond à un multiple de l’énergie nécessaire, il est à nouveau accéléré à 4.9 eV et peut à nouveau fournir l’énergie. L’électron a donné son énergie. Donc, il n’en a plus assez pour contrer l’électrode positive au milieu et est attiré par celui-ci. C’est pourquoi, le disque arrière n’est plus atteignable par cet électron. Mais il existe des tensions intermédiaires par exemple entre 4.9 eV et le double. Nous avons établis 8 volts alors que les électrons des atomes n’en « consomment » que 4.9, ce qui correspond à un « reste » de 3.1 eV. C’est bien trop peu pour exciter un électron d’un atome de mercure. Mais cela suffit pour que de nombreux électrons puissent échapper à la force d’attraction de l’électrode positive et percuter le disque droit. Cela explique que malgré tout, la courbe continue à augmenter. Maintenant, il demeure une question à résoudre. Qu’arrive t’il finalement avec les électrons excités à l’intérieur de l’atome de mercure ? Ceux-ci ne restent pas éternellement dans leur orbite supérieure excitée. Après un certain temps, ils retombent à leur état initial. Ils émettent une onde électromagnétique sous la forme d’un paquet quantique. L’importance

Page 57: Traduction : Granat Yvan

57

du contenu énergétique qu’aura ce paquet ne vous surprendra peut-être plus : 4.9 eV, soit exactement l’énergie qu’ils avaient précédemment captée. Si on convertit cela en fréquence d’onde émise, on arrive à une très faible longueur d’onde. Elle appartient au domaine ultraviolet. Nos yeux ne peuvent pas percevoir cela. Mais si nous le pouvions bien, nous constaterions que notre dispositif expérimental est entouré d’une lumière de couleur ultraviolette. L’ensemble de l’expérience ne peut s’expliquer qu’à l’aide de la théorie quantique. Les prévisions de la théorie quantique coïncidaient avec les résultats expérimentaux. La théorie quantique était démontrée Jusqu’ici, malgré tous ses hauts et ses bas, la théorie quantique donne une impression très ordonnée et très épurée. Les prévisions sont expérimentalement confirmées. Les prévisions quantiques lui ont donné du sens, même si tout d’abord, quelques scientifiques ne l’ont pas exactement appréhendée. Cependant, dans les prochains chapitres, cette limpidité s’atténuera. Peut-être, vous êtes vous irrités parce que constamment quand j’explique quelque chose, je saute ça et là entre ondes et particules, apparemment sans rime ni raison. Mais bientôt, vous verrez qu’ondes et particules sont des concepts indissolublement liés. Détendez-vous, car pouvez être sûr d’une chose. En physique quantique, il n’y a toujours qu’une voie : celle des fous. Résumé Grâce à différentes expériences, l’exactitude de la théorie quantique a pu être confirmée. A l’aide de son effet photoélectrique, Albert Einstein démontra que l’intensité lumineuse n’est responsable que du nombre des atomes éjectés. Qu’un électron soit détaché et à quelle vitesse, cela dépend d’une part de l’énergie quantique de la lumière et d’autre part, de l’énergie quantique acceptée par les électrons. A l’aide de la cellule photo, Planck a pu découvrir la valeur de sa constante naturelle h. Franck et Hertz démontrent avec leur expérience que vraiment, les électrons ne pouvaient prendre de l’énergie que par paquets quantiques et ont ainsi démontré l’exactitude de la théorie quantique.

Page 58: Traduction : Granat Yvan

58

Chapitre 9 : Des ondes, des particules, et des probabilités Ici, j’aimerais apporter quelques éclaircissements dans le charabia ondes-particules, en tout cas dans la mesure du possible. Car, comme vous le verrez, la science elle-même doit se contenter d’une solution intermédiaire. Il est encore plus incroyable qu’il s’avère que l’on ne peut pas déterminer l’emplacement d’une particule avec exactitude. On peut seulement donner un espace dans lequel il y a une haute probabilité qu’elle s’y trouve. Mais il n’est pas possible de dire où il exactement situé. La lumière comme flux de photons. Vous avez déjà fait connaissance avec l’équation selon laquelle l’énergie est calculée par quantas. L’énergie d’un quanta individuel est donc égale à la constante de Planck multipliée par la fréquence de la lumière. La fréquence (f) est l’inverse de la période (T), donc :

Inversement, la période est le temps dont une onde a besoin pour une oscillation complète. Ainsi, on divise le temps mesuré (t) par la quantité (n) d’oscillations qui se produisent dans cet intervalle de temps :

Si on connait la durée d’une oscillation, on doit seulement la multiplier avec la vitesse de propagation (c) et on obtient la longueur d’onde (lambda) :

Après une simple transformation, cela donne :

On l’introduit dans l’équation de la fréquence et on obtient :

En conséquence de quoi, l’équation d’énergie de Planck pour un quanta revêt la forme suivante :

Puisqu’il s’agit d’un calcul qui concerne des ondes électromagnétiques, la vitesse de propagation c est égale à celle de la lumière (environ 300.000 km/s). Si vous n’avez pas tout-à-fait compris cette démonstration, ce n’est pas grave. Ici, seule la dernière équation est importante. Je voulais vous montrer la preuve que le contenu en énergie d’un quanta dépend de la vitesse de la lumière et de la longueur d’onde de la lumière examinée. Et ainsi, la théorie ondulatoire et la théorie particulaire de lumière sont indissolublement liées l’une à

Page 59: Traduction : Granat Yvan

59

l’autre. On ne peut pas décrire la lumière seulement comme particule ou seulement comme onde. Les deux aspects sont complémentaires, l’un ne peut exister sans l’autre. Bohr a donné à ce fait un nom précis : le « principe de complémentarité ». En 1916, Einstein a réalisé une approche intéressante qui résultait des équations de sa théorie de la relativité générale. Selon ses recherches, l’énergie d’une particule est donnée par:

Ici aussi, c est la vitesse de la lumière, m la masse au repos et p l’impulsion de la particule. De précédentes études de Planck disaient que l’impulsion d’un quanta lumineux devait

précisément être :

.

Ici, quand il a confronté cette équation à elle-même, Albert Einstein a été vraiment une lumière. On suppose la lumière n’a pas de masse au repos, on obtient ainsi :

On réécrit cela selon p et on transforme l’équation. On obtient :

Les résultats précédents de Planck et les calculs correspondants d’Einstein suggèrent que les particules lumineuses ne sont pas un schéma de secours mais une réalité. Plus tard, ces particules furent appelées photons et ont une propriété très intéressante que ci-dessus, j’ai seulement mentionné en passant : la lumière n’a pas de masse au repos ! C’est comme si on prenait un ballon de football qui n’existe que tant que les footballeurs le mettent en mouvement. Si à un moment donné, il n’est plus un mouvement, il n’a plus de masse et disparait soudainement comme s’il n’avait jamais existé. Donc, si nous mesurons un photon, alors il est aussi un mouvement, il n’existe pas de photons immobiles. Ils se déplacent à la vitesse de la lumière. Le dualisme ondes-particules En ce qui concerne les photons, vous avez déjà appris que les concepts d’ondes et de particules sont intiment liés et inséparables les uns des autres. En outre, certaines expériences ne peuvent s’expliquer que par un concept d’ondes (par exemple, le faisceau d’interférence), d’autres seulement par un concept de particules (par exemple l’effet photoélectrique, l’expérience de Franck-Hertz). Mais il se pose une question assez similaire : Si une onde est aussi une particule, une particule n’est-elle pas aussi une onde ? Cette question a d’abord eu un caractère plutôt philosophique, mais elle a été prise au sérieux et il y a aussi été répondu. Le physicien français Louis Victor de Broglie (1892-1987) se consacra concrètement à cette question. Il voulait démontrer que des électrons ne sont pas uniquement des particules, comme telle était l’opinion générale, mais aussi des ondes comme c’est le cas de la lumière. Mathématiquement, il put le démontrer assez rapidement. Cependant, la démonstration expérimentale se poursuivit jusqu’en 1927. Dans l’expérience, un électron est tiré sur un cristal de nickel. Si l’électron était réellement une onde, alors celle-ci, à l’image d’un vague d’eau, serait courbée par les atomes individuels de cristal. A l’intérieur de la structure de cristal, les atomes sont ordonnés très régulièrement. Les

Page 60: Traduction : Granat Yvan

60

distances entre eux sont très faibles, plus faibles que la longueur d’un électron calculée par de Broglie. Dès lors, l’onde aurait du se diffuser à travers plusieurs atomes. Le résultat est facilement prévisible : au chapitre 3, vous avez déjà vu ce qui se passe : les ondes lumineuses qui volent entre deux fissures interfèrent, à l’image de ce qui se passe pour la lumière, ce que montre des raies sombres et claires. On espérait observer la même chose pour l’électron, un faisceau d’interférence. Et c’est bien ce qui arriva.

Ainsi, la preuve était apportée : les électrons sont des ondes… et des particules. Et bien oui, vous connaissez déjà ce problème. Des expériences postérieures ont montré que les protons et les neutrons des atomes ont également des propriétés ondulatoires. C’est pourquoi, on parle aussi de matière ondulatoire. S’il vous plait, prenez bien notre de ceci ! La matière peut aussi bien être interprétée en tant que particules qu’en tant qu’ondes. Vraisemblances ou : Où est mon électron ? Jusque là, le modèle atomique établi par Bohr était très clair : un noyau consiste en particules que l’on appelle neutrons et protons et dans des orbites parfaitement déterminées, volent de petites particules appelées électrons. Mais comment pouvait-on se représenter tout cela avec des ondes ? D’après la nouvelle conception, de petites ondes devaient à présent aussi voler autour du noyau, qui, du reste, est lui-même une « pelote » d’ondes. Ici, la capacité d’imagination décline et c’est aussi un résultat que vous devez tirer de ce chapitre : le modèle clair et élégant de monde atomique qui vous a probablement été donné à l’école n’existe pas. On essaie (c’est seulement très humain) de transposer le comportement complexe de la physique quantique au contexte de notre vie quotidienne pour en avoir une meilleur capacité de représentation. Ainsi, les orbites planétaires ne sont qu’une

Page 61: Traduction : Granat Yvan

61

métaphore. Ils n’existent pas réellement. Donc, il n’y a pas d’électrons sur des orbites planétaires autour du noyau. Ceci doit seulement nous faciliter la vision du monde atomique et il en est ainsi avec beaucoup d’aspect de la théorie quantique. Ici, je n’aimerais pas vous déconcerter. Mais vous ne devriez pas prendre tout cela pour argent comptant et le transposer au monde réel à l’identique. Vous pouvez le faire pour mieux vous représenter les choses, mais vous ne devriez pas accepter que cela soit vrai. Personne ne peut vraiment vous dire quelle est l’apparence réelle d’un atome. Nous devons recourir à des métaphores humainement tangibles pour parvenir à une représentation. Mais on ne doit jamais les confondre avec la vérité !

Pour la description du dualisme ondes-particules, Max Born (1882-1970), physicien allemand, continua à développer une idée qui existait déjà auparavant. Mais il la perfectionna. Pour la description d’un électron, il utilisait, comme c’était habituel, les fonctions ondulatoires qui sont résumées par la lettre grecque psi. Puis, Born associa les résultats de la fonction psi à la représentation des particules : à l’aide la fonction d’ondes, on peut mesurer l’intensité d’une onde n’importe où dans l’espace. Born prit l’intensité de l’onde comme probabilité que la particule se trouve à l’endroit x à l’instant t. Plus le résultat de la psi-fonction est important à un endroit précis de l’espace, plus il est vraisemblable que l’électron y soit présent. Le résultat de cette mesure est vraiment troublant : Nous ne pouvons jamais dire exactement où se trouve un électron ! Nous pouvons seulement dire quelle est la probabilité que l’électron réside à un certain endroit. Donc, il peut théoriquement se trouver n’importe où. Cependant la probabilité qu’il se trouve à certains endroits est beaucoup plus élevée qu’il se trouve à d’autres. Bien entendu, cette effrayante constatation ne contribue pas à faciliter notre représentation d’un atome. Comment nous représenter un électron qui est partout et nulle part ? En conséquence, il fallait définitivement abandonner la comparaison avec les orbites et introduire la notion d’orbitales, zone de l’atome dans laquelle un électron est très susceptible de se trouver. Bien sûr, il en est de même pour toutes les autres particules. Je l’ai déjà suggéré : en physique quantique, il n’y a jamais que des voies folles.

Page 62: Traduction : Granat Yvan

62

Dieu ne joue pas aux dés. Cependant, le calcul avec des probabilités n’avaient rien de nouveau. Déjà auparavant, on avait reconnu que certains processus ne sont pas calculables. Ils sont le fruit du hasard : Personne ne peut dire quand, comment, pourquoi. Albert Einstein n’était pas trop satisfait de cette représentation. Il était fermement convaincu que tout a une cause et cela doit pouvoir se mesurer par ses effets. Il exprima cela avec sa célèbre déclaration : « Dieu ne joue pas aux dés », il pensait que Dieu ne laisse rien se produire par hasard, mais que tout est pleinement déterminé. Une attitude que j’ai déjà expliquée plus complètement au premier chapitre et que l’on décrit avec le mot déterminisme. Mais, à ce moment déjà, je disais que le déterminisme n’est hélas qu’un rêve : tout n’est pas calculable. Quelques éléments semblent se passer tout-à-fait par hasard. Vous avez déjà vu cela avec le calcul de la position des électrons dont l’emplacement n’est pas complètement déterminable. Maintenant, vous allez le voir avec deux processus de physique quantique que vous connaissez déjà. Vous savez qu’au sein des atomes, des électrons peuvent être élevés à des orbites supérieures par l’action des photons. Grâce à l’énergie transposée les électrons sautent d’une orbite plus basse à une orbite plus haute (vous voyez que je continue avec les métaphores, même si elles sont fausses, mais ainsi, on peut mieux se présenter les choses). Mais vous savez aussi que des électrons ne demeurent pas toujours à ce plus haut niveau d’énergie. Après un certain temps, ils retombent dans leur ancien état et abandonnent à nouveau l’énergie captée. Mais le moment où ils retombent n’est pas calculable ! On peut déterminer une probabilité du moment où ils peuvent retomber mais le fait qu’ils le fassent, demeurent totalement à la discrétion des électrons. Un autre problème est le calcul du processus de fission radioactive. Vous savez déjà qu’on peut artificiellement scinder des noyaux. C’est ce qu’on réalise dans les centrales nucléaires. Mais des noyaux peuvent aussi se scinder naturellement sans que l’on doive les bombarder avec des neutrons ou avec autre chose. Mais le moment où ils le font restent totalement à la discrétion des atomes. Cela non plus n’est pas calculable. On peut seulement fournir les probabilités statistiques qu’une certaine quantité d’un échantillon sera scindée durant une période déterminée. On prend une quantité d’un échantillon et on peut constater qu’après un temps x, la moitié des atomes présents dans l’échantillon sont scindés. Quand cette durée passe encore, la moitié de la moitié est aussi scindée etc. On appelle cela la demi-vie. Vous en avez déjà surement entendu parler dans le domaine du stockage des déchets radioactifs. Par exemple, La demi-vie de l’isotope uranium 235 (143 neutrons) s’élève à 700 millions d’années, celle de l’uranium 238 (146 neutrons) est même de 4.5 milliards d’années. Cela veut dire que dans un échantillon d’un kilo après respectivement 700 millions et 4.5 milliards d’années la moitié soit 0.5 kg de l’échantillon est scindée. Donc le résultat est : Oui, Dieu joue bien aux dés !

Page 63: Traduction : Granat Yvan

63

Les nombres quantiques et leur rôle dans la structure atomique Comment les électrons savent-ils à quelles orbites ils appartiennent (comme il a déjà été dit : je conserve l’idée d’orbites planétaires pour des raisons de clarté) ? Pourquoi passent-ils de l’orbite la plus interne de seulement 2 électrons à la suivante qui en compte déjà 8, et pourquoi pas vers une orbite encore plus haute? Wolfgang Pauli (1900-1958) avait une réponse à ce sujet. On savait déjà que des électrons réunissent plus de propriétés que seulement la fréquence, l’énergie et l’impulsion. Il fallait leur attribuer d’autres paramètres pour expliquer certains phénomènes. Par exemple, la série de Balmer était un problème non résolu. Ceci n’est rien de plus que les raies qui proviennent de l’hydrogène. Johann Jakob Balmer (1825-1898) était un professeur suisse qui avait réfléchi sur le phénomène des franges et développé une formule. Avec son aide, on pouvait calculer les raies spectrales. Mais elle ne fonctionnait que pour l’hydrogène et bien sûr, elle n’avait rien à voir avec la physique quantique. En effet, celle-ci ne fut découverte qu’en 1900 et à ce moment, Balmer était déjà mort depuis longtemps. Cependant, Nils Bohr supposait qu’une modification de la formule avec utilisation de la constante h de Planck pourrait transférer l’équation dans le monde de la théorie quantique. Il réalisa cela et elle fonctionnait en se basant sur le modèle atomique de Bohr avec des électrons qui ne peuvent sauter que sur des orbites déterminées et quantiques (comme cela a déjà été décrit). Mais il y avait un problème. En théorie, il existait plus de raies lumineuses que celles que l’on observe réellement. On ne pouvait pas en expliquer les raisons, mais on attribua encore des propriétés aux électrons. Dès lors, le modèle mathématique devait former de nouveaux paramètres : les nombres quantiques. Ainsi, on obtient un « chiffre quantique principal » (n). Celui-ci correspond à un niveau d’énergie que certains électrons peuvent atteindre à l’intérieur des couches de l’atome de façon plus vraisemblable qu’un autre niveau d’énergie. De cette manière, on pouvait expliquer pourquoi certaines lignes dans le spectre n’apparaissent pas tandis que d’autres sont plus prononcées : la probabilité qu’un électron capture la portion d’énergie x et ainsi saute sur la couche y est tout simplement plus importante que celle qu’il capture la portion d’énergie x’ et atteigne ainsi le niveau d’énergie de la couche y’

Depuis lors, on attribua à l’électron beaucoup d’autres propriétés : en plus des nombres quantiques, les nombres quantiques magnétiques et les spins quantiques. Ici, je vous

Page 64: Traduction : Granat Yvan

64

épargne complètement la présentation de ces nombres. Ceux-ci sont de pures expériences de pensée mathématique. On tenta bien de traduire ces nombres dans la mécanique classique. On parvint ainsi à certains parallélismes. Par exemple, le spin serait l’impulsion de la rotation. Cela fonctionne aussi longtemps que l’on se représente les électrons comme des billes. Mais comment se meut une onde ? Et surtout, où est finalement l’onde qui doit se mouvoir ? Vous voyez, cette représentation ne fonctionne pas et une fois encore, elle n’a rien à voir avec la vérité. C’est pourquoi on devait simplement se faire à l’idée que les nombres quantiques sont de propriétés que l’on attribue aux électrons et c’est tout. Plus haut, j’ai déjà utilisé le concept d’orbitale. Ce sont des espaces calculés dans lesquels il est vraisemblable de trouver un électron. Cette représentation n’a plus rien à voir avec le concept tout-à-fait appréhendable d’orbites planétaires. On peut donc interpréter les orbitales comme de l’espace. Chaque nombre quantique correspond à une couche de l’atome de Bohr. Ainsi, le nombre quantique 1 est la couche la plus interne. Le nombre quantique 2, la couche suivante et ainsi de suite jusqu’à la septième couche. A présent, chaque couche est un certain nombre attribué à des orbitales possibles. Par exemple, à la première couche est attribuée une orbitale dénommé s, à la deuxième couche une orbitale s et à la troisième une orbitale dénommé p etc. En outre, les orbitales ne sont rien d’autre que des espaces dans lesquels des électrons peuvent se mouvoir. Le rôle d’un nombre quantique accessoire est bien de sélectionner une forme orbitale déterminée, c’est-à-dire s’il s’agit d’une orbitale s-, p-, d-, f- ou g-. Ce que sont précisément ces orbitales ne présente pas beaucoup d’intérêts ici. Il s’agit de formes spatiales déterminées dans lesquelles un électron peut se trouver. A l’intérieur d’une orbitale, deux électrons prennent place. Mais ceux-ci doivent avoir un différent spin l’un de l’autre.

Pour nous, c’est une affaire quotidienne tout-à-fait banale : j’ai mis une bille sur la table. Dès lors, je ne peux pas en placer une autre au même endroit et en même temps. Car la première occupe déjà l’espace. Si on se représente des électrons comme des sphères, deux électrons ne peuvent être au même endroit en même temps. Mais si on suppose que les électrons sont des ondes et qu’il y a une probabilité qu’un électron se trouve à un certain

Page 65: Traduction : Granat Yvan

65

endroit à un certain moment, alors, ces champs de probabilités se chevauchent. C’est pourquoi, on peut dire que dans une orbitale, plus d’un électron a de la place. Selon Pauli, il y a exactement de la place pour deux, pas plus. Pourquoi ? C’est la loi fondamentale qu’il a découvert : deux électrons peuvent effectivement occuper le même espace (de probabilité), mais ils doivent avoir des nombres quantiques différents. Si les électrons se sont décidés pour une orbitale, il en découle que tous leurs nombres quantiques sont fixés, sauf un : le spin. Celui-ci peut s’élever à +1/2 ou -1/2. C’est la raison pour laquelle une orbitale peut accepter au maximum deux électrons. Plus que deux, cela ne marche pas, car alors, à l’intérieur d’une orbitale, au moins deux électrons devraient avoir un spin de +1/2 ou de -1/2. Cela n’est pas possible car alors au moins deux particules concordent pour tous leur nombre quantique, ce qui n’est pas permis. De cette manière, Pauli expliquait comment l’électron sait à quel lieu il appartient. Il se conforme à son nombre quantique. Ainsi, tout d’abord, les orbitales de plus basse énergie sont remplies et puis celles avec de l’énergie de plus en plus élevée, toujours en tenant compte de leur propre spins et des trois autres nombres quantiques. On appelle cela le principe d’exclusion de Pauli ou plus simplement le principe de Pauli et il s’agit d’une loi fondamentale de la nature. Bien sûr, les électrons ne sont pas les seuls à posséder des nombres quantiques. Les protons et les neutrons disposent aussi de ces propriétés quoiqu’elles ne soient pas tout-à-fait comparables. Sous les principes de probabilité et de nombre quantique, de bons modèles mathématiques sont développés pour décrire la nature des particules. Parmi ceux-ci, on compte la mécanique matricielle, l’algèbre quantique et la très célèbre fonction d’ondes de Schrödinger. Ce principe est certainement très difficile à comprendre. Il n’est mentionné ici que par souci d’exhaustivité. Il n’est pas absolument disponible pour une compréhension aisée de la théorie quantique. Il est plutôt la cerise sur le gâteau. Le prochain chapitre est quelque peu plus intéressant parce qu’il s’agit de curiosités du monde et de ses changements. Résumé Selon le principe de complémentarité de Bohr, les ondes et les particules sont intimement liées les unes aux autres. On décrit aussi cela par le dualisme. Les deux concepts sont les deux faces d’une même médaille. Les électrons ainsi que les autres particules élémentaires peuvent, eux aussi, être conçus comme du matériau ondulatoire. Mais on rencontre le problème de l’emplacement exact d’une particule qui ne peut être précisément déterminé. Dès lors, les probabilités doivent être introduites ce qui perturbe une fois encore sensiblement le déterminisme. De là, résulte un modèle atomique retravaillé au sein duquel les particules occupent des espaces de probabilités à l’intérieur d’un atome. Quel espace de probabilité peut occuper les particules ? A cela, répond le principe d’exclusion de Pauli selon lequel au sein d’un système (par exemple un atome), aucune particule ne peut se présenter avec des nombres quantiques identiques. Ainsi, les nombres quantiques constituent des propriétés supplémentaires qui décrivent chaque particule.

Page 66: Traduction : Granat Yvan

66

Chapitre 10 : De la folie du monde quantique. De la distribution de probabilité et du dualisme ondes-particules, résultent quelques expériences concrètes et quelques expériences de pensée très étranges et très bizarres. Ici, j’aimerais en présenter quelques unes parmi les plus célèbres et en même temps, exposer une loi naturelle très importante. La double fente et la principe d’incertitude d’Heisenberg4. Une fois encore, une expérience constituera la base de la démonstration suivante. On prend une source lumineuse et un panneau percé de deux fentes. La lumière doit prendre un des deux chemins pour finalement aboutir derrière un écran (une plaque photo). Mais les deux voies par laquelle la lumière peut passer doivent être de longueur différente.

Vous savez certainement ce à quoi on veut aboutir de cette manière : En raison de la différence de longueur des chemins de longueur, les hauts et les creux des ondes derrière les fentes ne correspondent plus. Ils interfèrent et un faisceau d’interférence apparaît sur la plaque photographique.

4 NDT : l’auteur emploie le terme « Unschärferelation » qui fait référence à l’idée de flou. En français, l’expression principe d’incertitude est consacrée. Elle peut induire en erreur et faire penser que l’incertitude provient d’une inefficacité des appareils de mesure (voir Etienne Klein, « petit voyage dans le monde des quantas »).

Page 67: Traduction : Granat Yvan

67

On avait tout d’abord essayé d’expliquer le faisceau d’interférence sur l’écran, c’est-à-dire les zones sombres et claires, par le fait que les quantas se repoussent les uns les autres et ainsi heurtent l’écran par intervalle. Ainsi, le faisceau d’interférence pourrait être ainsi expliqué En outre, on n’aurait plus besoin de la théorie ondulatoire pour cette expérience. Mais, cela aussi pouvait être réfuté. On ne tire qu’un unique photon. Donc, il ne peut pas être repoussé par un autre malgré ce que montre le faisceau d’interférence. Ensuite, on a supposé que le quanta pouvait peut-être scindé et qu’ainsi deux quantas volaient à travers les fentes. Naturellement, ceux-ci pouvaient alors se repousser. Alors, on plaça la plaque photographique directement derrière les deux fentes. On aurait du voir des impacts lumineux aux deux fentes. Mais cela ne fut pas le cas. Donc la théorie de la fission pouvait aussi être abandonnée. Cependant, dans cette expérience, il y avait quelque chose de très intéressant à constater. Maintenant, vous vous demandez peut-être : « si la lumière passe à travers les fentes comme une onde, alors de la lumière aurait du aussi être détectée aux deux détecteurs de manière analogue à ce qu’aurait fait le quanta scindé. Comment la lumière a-t-elle traversé la fente : comme onde ou comme particule ? Ici, la réponse est : parfois comme l’une, parfois comme l’autre. La lumière se comporte comme nous l’attendons. Si nous menons l’expérience de l’interférence, la lumière se comporte comme une onde. Si nous voulons savoir où est la zone que la lumière a survolé, alors, elle se comporte comme un flux de quanta. C’est une propriété fondamentale et une fois encore, la folie du dualisme ondes-particules apparaît. La lumière peut apparemment lire nos pensées, elle sait ce que nous attendons et peut se comporter en fonction. Ici, se produit un important problème : si nous amenons directement la plaque photographique en arrière de la fente, nous pouvons mesurer par lequel des deux fentes le photon est passé, mais nous ne savons pas où il aurait aboutit en arrière, si nous avions placé l’écran plus loin. Inversement, nous pourrions mesurer où le photon aboutit, si nous

Page 68: Traduction : Granat Yvan

68

positionnons l’écran plus en arrière. Mais alors, nous ne pourrions pas dire par laquelle des deux fentes le photon est passé. Le résultat de cette expérience est le suivant : le lieu et l’impulsion (soit l’énergie, symbolisée ici par le point d’impact) ne sont pas mesurables simultanément avec une précision aussi grande que souhaitée. On appelle cela le principe d’incertitude d’Heisenberg, nommé selon son découvreur, le physicien allemand Werner Karl

Heisenberg (1901-1976). Il mesura cela par la formule

. Cela signifie que

l’incertitude de position (Delta x) multipliée par l’incertitude d’impulsion (Delta p) est plus grande ou égale à la constante de Planck (h) divisé par quatre fois le nombre pi (environ 3.14). Il en résulte qu’une parfaite mesure de la valeur x a pour conséquence une importante erreur de mesure concernant l’impulsion et inversement. Cela changea fondamentalement la vision scientifique du monde : si nous ne sommes pas en mesure de localiser et d’analyser parfaitement les plus petites structures, comment alors pourrions-nous établir correctement une vue d’ensemble de plus grands ensembles sans connaître parfaitement les processus au sein des plus petites structures ? C’est une des raisons pour lesquelles nous devons définitivement abandonner le déterminisme. C’est dans ce but que la mécanique quantique a été fondée. Elle ne se consacre pas à prédire comment un système déterminé apparaitra à l’avenir. Sa tâche est de constater quelles possibilités a un système de se développer et de calculer qu’elle est la probabilité qu’il a de connaître tel ou tel développement. Il ne nous reste plus rien d’autre que des probabilités et comme chacun le sait, des probabilités ne sont pas des savoirs. La polarisation quantique et un étrange effet Au chapitre trois, vous avez déjà appris beaucoup de choses sur la lumière et ses propriétés, entre autre que l’on peut l’interpréter comme une onde électromagnétique. Ainsi, les champs électriques et magnétiques sont situés à angle droit l’un par rapport à l’autre. Si on se représente la direction dans laquelle la lumière se répand comme une flèche, alors effectivement, les ondes électriques et magnétiques se maintiennent toujours en angle droit l’une par rapport à l’autre. Mais l’oscillation de l’ensemble peut s’orienter dans n’importe quelle direction. Le graphique ci- dessous illustre cela.

Page 69: Traduction : Granat Yvan

69

Des filtres de polarisation laissent seulement passer la lumière qui est polarisée dans une direction clairement déterminée. La lumière avec une autre polarisation est bloquée dans son parcours. Si on prend alors un filtre qui ne laisse passer que la lumière horizontale, il ne se trouve derrière le filtre que de la lumière horizontalement polarisée. Maintenant, on essaye d’envoyer celle-ci à travers un filtre avec de la polarisation verticale. Ainsi, on constatera bien sûr qu’aucune lumière n’arrivera derrière ce filtre, puisque seul de la lumière avec de la polarisation horizontale est disponible. Mais celle-ci est bloquée sur le trajet. Maintenant, on modifie un peu l’expérience. Derrière le polarisateur horizontal, on en installe un autre orienté en diagonale. De la mathématique de la théorie quantique, il résulte que 50 % de la lumière horizontalement polarisée peut traverser celui-ci.

Mais maintenant, on aboutit à une situation paradoxale : derrière le polarisateur en diagonale, on installe à nouveau le polarisateur vertical déjà mentionné plus haut. On constate alors que la lumière le traverse. C’est vraiment bizarre : Dans la première expérience, je monte deux barrières qui ont pour tâche de maintenir les quanta loin de moi. Ensuite, pour être sûr, je monte encore une troisième barrière entre les deux autres et le résultat est un franchissement des barrières par les quantas. Cela est paradoxal et ne peut s’expliquer que par un fait : par la modification du dispositif expérimental, j’ai élaboré une nouvelle réalité quantique. Dès lors, Les résultats des deux expériences ne sont pas comparables l’un à l’autre !

Page 70: Traduction : Granat Yvan

70

Triste nouvelle : le chat de Schrödinger est mort vivant Erwin Schrödinger a présenté une expérience qui devait éclairer le paradoxe de la physique quantique. On résume les résultats de différentes expériences, comme le principe d’incertitude d’Heisenberg, la distribution de probabilité et le dualisme onde-particule sous le concept général de l’interprétation de Copenhague. Schrödinger a combiné ces théories dans son expérience de pensée devenue célèbre. Elle fut baptisée « expérience du chat de Schrödinger ». En fait, le principe de base est très simple. Un chat est enfermé dans une boite en bois. En outre, un échantillon de matériel radioactif y est introduit. En plus, un compteur Geiger est installé. Il mesure si un noyau à l’intérieur de l’échantillon est scindé. L’appareil est relié à une bouteille contenant du poison. Quand un noyau se scinde, la bouteille est ouverte par un appareillage, le poison se répand et tue le chat. Par contre, si aucun noyau de l’échantillon ne se scinde, il ne se passe rien.

Maintenant, nous fermons la boite avec le chat et l’appareil, nous attendons un certain temps. Qu’arrive-t-il au chat à l’intérieur de la boîte ? Est-il déjà mort ou vit-il encore ? Rappelez-vous : la fission d’un noyau atomique est une pure question de statistique et pour nous, elle n’est pas calculable. Que le chat vive ou non est purement aléatoire et constitue une superposition de plusieurs états possibles. Le chat est pour ainsi dire mort-vivant. Il se trouve dans un état intermédiaire. Ce n’est que si nous ouvrons la boite que la fonction d’ondes doit prendre une décision et tuer le chat ou le laisser vivre. Cela parait complètement absurde : Soit le chat vit, soit il est mort. Mais un état intermédiaire n’est que difficilement concevable. De cette façon radicale, Schrödinger voulait démontrer la faiblesse de l’interprétation de Copenhague. Naturellement, le chat ne peut se trouver que dans un des deux états et non quelque part entre les deux. Mais alors,

Page 71: Traduction : Granat Yvan

71

comment la physique quantique peut-elle être sauvée ? Comment cette erreur peut-elle être surmontée ? Ce sera le sujet du prochain chapitre. Résumé. L’expérience de la double fente montre que la position et l’impulsion d’une particule ne sont pas simultanément mesurables. Donc, nous ne pouvons pas appréhender sans limite la réalité au niveau le plus petit. Ce phénomène est nommé le principe d’incertitude d’Heisenberg du nom de son découvreur. De même, nous ne pouvons pas conclure du résultat d’une expérience de physique quantique, le résultat d’une autre. L’expérience de la lumière polarisée le démontre. Par suite d’une superposition d’amplitude de probabilité, le chat de Schrödinger se trouve à l’intérieur de la boîte dans une situation simultanée de vie et de mort. Si nous ouvrons la boîte, la physique quantique doit opter pour une réalité et doit tuer le chat ou le laisser vivre. On comprend cela par la réduction du paquet d’ondes de vraisemblance.

Page 72: Traduction : Granat Yvan

72

Chapitre 11 : Le zoo des particules. Jusqu’ici, vous vous êtes familiarisés avec trois particules de notre univers : l’électron, le neutron et le proton. Mais il n’en s’agit que d’une petite partie. En effet, en vérité, il y en a beaucoup plus et ainsi, la notion de « zoo de particules » s’est implantée. Dans ce chapitre, j’aimerais vous présenter ces « particules bizarres » de plus près. Détournement de l’antimatière par la théorie de la relativité restreinte d’Einstein. Je vous l’avais déjà présentée : voici l’équation d’énergie d’Einstein à l’aide de laquelle on peut calculer le contenu en énergie d’une particule à partir de sa masse et de son impulsion :

Si on considère une impulsion égale à 0, on obtient : On en extrait la racine et on obtient 2( !) résultats :

√ √ puisqu’il est à la fois vrai que ( ) et que ( ) . Durant de longues années, cette dernière équation ne suscita guère d’attention. Il semblait évident que seule l’équation avec un facteur positif avait du sens. Mais, pour Paul Dirac (1902-1984), ce résultat négatif avait beaucoup de sens. Si on applique l’équation à des électrons, il doit aussi y avoir des électrons avec de l’énergie négative. Vous savez que selon le principe de Pauli, les niveaux d’énergie sont toujours garnis du plus bas au plus haut. Le plus haut niveau d’énergie n’est occupé que si le niveau plus bas est déjà plein et qu’un électron supplémentaire n’a plus de place (ses nombres quantiques coïncideraient). Mais si un électron ne tombe pas à un niveau négatif, manifestement, se pose la question pourquoi il ne le fait pas. La réponse de Dirac à ce sujet : Parce que les niveaux d’énergie plus bas sont déjà occupés par des électrons ! Tout simplement, ils existent partout, même dans l’espace vide où nous ne pouvons rien suspecter. Tout simplement, elles sont là, des particules avec de l’énergie négative. S’ils sont là, ne peut-on pas rendre ces antiélectrons (comme on les a appellé) visibles et mesurables ? Oui, on le peut. A condition d’utiliser une grande quantité d’énergie (environ un million d’électron volt), on peut donner à l’électron l’énergie nécessaire de sorte qu’il saute de « l’antimonde » dans notre monde. L’énergie que l’on ajoute est facile à calculer. D’après l’équation suivante : , elle s’élève à exactement 2 fois la masse de l’électron multipliée par la vitesse de la lumière au carré. Mais si un électron est arraché à l’antimonde, il doit se trouver là bas, une sorte de trou. Ce trou, entouré d’énergie négative devrait être décelé, comme inversement, un électron négatif entouré d’énergie positive dans notre monde devrait l’être aussi. Pendant que dans notre monde, la particule négative est observée, le trou positif devrait être constaté dans l’antimonde. Celui-ci serait mesurable : une particule est donc recherchée, laquelle a la masse d’un électron mais est positivement chargée. Des expériences confirment son existence. De nos jours, on appelle positron cet antiélectron.

Page 73: Traduction : Granat Yvan

73

Des fermions et des bosons Le zoo des particules peut être réparti en deux groupes principaux, les fermions et les bosons. Ils sont de nature fondamentalement différente. Les électrons, les neutrons et les protons appartiennent aux fermions, ainsi dénommés selon la statistique de Fermi-Dirac avec laquelle on doit, grosso modo, examiner le comportement des électrons de manière plus complète. Par la valeur de leur spin, il est facile de distinguer les fermions des bosons : les premiers ont des spins demi-entier (soit ±1/2, ±3/2,…), par contre les bosons ont des spins entiers (0, ±1, ±2,…).

Par exemple, l’électron a un spin soit de

(

) , soit de -

(

)

La constante de Planck divisée par deux fois le nombre pi est une constante par laquelle on multiplie la valeur du spin. Les fermions obéissent au principe de Pauli, c’est-à-dire que plusieurs électrons à l’intérieur d’un atome doivent avoir des nombres quantiques différents. Le nombre des fermions dans l’univers est constant. Ils ne peuvent être ni crées ni détruits. De cela, il découle que le nombre de neutrons, protons et électrons à l’intérieur de notre univers est une constante immuable. En face, nous avons les bosons. Ces particules dont le nom vient de la statistique Bose-Einstein, font une impression assez bizarre. Ils n’obéissent pas au principe de Pauli et peuvent être artificiellement créés. Donc, leur quantité n’est pas constante dans l’univers. Vous avez déjà fait connaissance avec le représentant le plus connu de cette espèce : le photon. Au repos, il ne possède aucune masse et peut être créé artificiellement comme nous l’avons constamment fait dans nos expériences et comme vous le faites aussi chaque fois que vous allumez la lumière.

Page 74: Traduction : Granat Yvan

74

Les protons, les neutrons et les quarks Par des expériences, on a constaté que les protons et les neutrons ne sont pas des particules élémentaires. Ils se composent de particules supplémentaires, encore plus petites, les quarks. Il en existe six catégories qui se distinguent selon leur charge et leur masse :

Quark Charge

Up (u) +2/3

Down (d) -1/3 Charm (c) +2/3

Strange (s) -1/3

Top (t) +2/3

Bottom (b) -1/3 Un proton consiste en deux quarks up et un quark down. Si nous faisons nos calculs, ça tombe pile puisque une charge 2/3 + une charge 2/3 – une charge 1/3 = +1 et le proton est tout juste porteur d’une charge une fois positive. Cela devrait aussi fonctionner pour le neutron avec une charge de 0. Un neutron consiste en un quark up et deux quarks down : charge 2/3 – charge 1/3 – charge 1/3 =0. Cela est donc correct. Si vous regardez complètement le tableau ci-dessus, vous constaterez qu’il y a aussi d’autres combinaisons possibles pour atteindre une charge de 0 et de 1. Par exemple, un quark-up, un quark-down et un quark strange donnent ensemble le nombre 0. Alors, pourquoi le neutron n’est-il pas formé par cette combinaison ? D’une part, cette particule n’a pas la même masse qu’un neutron et deuxièmement, elle ne vit pas longtemps, en effet, seulement un dix milliardième de seconde. Cette particule, appelée lambda, est donc extrêmement instable. Encore une fois, la moitié de l’ensemble de ces particules dénommées baryons est mentionnée ci-dessous.

Type Particules Quarks Charges

Nucleons Proton uud +1

Neutrons udd 0

Hypérons Lambda uds 0

Particules-sigma

Sigma-plus uus +1

Sigma-nul uds 0

Sigma-moins dds -1

Particules-xi

Xi-null uss 0

Xi-minus dss -1

Lambda-c-plus udc +1

Page 75: Traduction : Granat Yvan

75

On désigne par nucléons les particules stables, par hypérons, celles qui se scindent après peu de temps. Leur spin est demi-entier et ils appartiennent donc aux fermions. En face, nous avons les mésons qui ont des spins entiers et appartiennent ainsi aux bosons. Ils se composent de paire de quarks et d’antiquarks. Ceux-ci sont donc des quarks avec la même masse que leurs homologues déjà présentés, mais avec une charge inversée. Tout d’abord, on distingue deux sortes de mésons : le pion et le kaon qui se subdivisent à nouveau en de nombreux sous-groupes. Mais, à ce stade, je ne désire pas entrer dans les détails. Maintenant, vous demanderez peut-être : « Et les électrons, de quoi sont-ils composés ? ». Ici, La réponse est simple : ils ne sont pas composés d’autres particules. Ils appartiennent à une troisième sorte de particules qui existent à côté des baryons et des mésons : les leptons. Ce sont des particules élémentaires qui se distinguent selon leur charge, leur masse et leur durée de vie. En effets, il en existe trois sortes, les électrons, les muons et les taus. Chacun d’eux possède un homologue neutre, le neutrino :

Particule Charge

Electron -1 Neutrino électronique 0

Muon -1

Neutrino muonique 0

Tau -1 Neutrino tauique 0

A chacune de ces particules correspond une antiparticule. L’antiparticule de l’électron vous est déjà connue, il s’agit du positron. Tous les leptons ont un spin demi entier et dès lors, ils appartiennent aux fermions. Mais pourquoi cette nouvelle subdivision ? Quel sens cela a-t-il ? Où est la cohérence dans ce jeu emmêlé de particules ? Nous nous y consacrerons dans le prochain chapitre. Résumé Paul Dirac à constaté qu’à côté de la matière à laquelle nous sommes accoutumés, il y a aussi de l’antimatière. En se basant sur l’électron, on peut démontrer cela. Le positron est un électron avec de l’énergie positive. En outre, nous répartissons d’abord le monde des particules en deux groupes en fonction de leur spin: les fermions et les bosons. Les fermions, avec leur demi-spin, font partie de la matière qui nous est familière. Ils ont une masse au repos et obéissent au principe d’exclusion de Pauli. Les bosons, par contre, ont un spin entier et n’obéissent pas au principe de Pauli. Certaines particules comme les neutrons et les protons (mais pas les électrons !) sont composées d’autres particules, les quarks. Une fois encore, il en existe six types plus leur contrepartie d’antimatière. Indépendamment de cela, trois groupes sont formés, à savoir les baryons (neutrons, protons), les mésons (pion, kaon) et les leptons (électrons, muons, tau et leurs neutrinos).

Page 76: Traduction : Granat Yvan

76

Chapitre 12 : La force nucléaire et ses effets. Nous savons que des particules comme les neutrons et les protons sont composées de particules plus petites, les quarks. Les grands groupes de baryons et de mésons sont en principe constitués de ces particules. Mais comment ces particules tiennent-elles ensemble ? Pourquoi les quarks ne séparent-ils pas à nouveau ? J’aimerais vous répondre ici à cette question. En outre, j’aimerais essayer d’apporter un peu d’ordre dans le chaos du zoo des particules et de leur subdivision. L’électrodynamique quantique et la force électromagnétique On trouve la cause de la cohésion de notre matière dans des forces qui s’exercent entre les particules. On peut ramener tous les phénomènes connus à quatre forces originelles : force nucléaire forte, force nucléaire faible, gravitation et force électromagnétique. Vous connaissez déjà la dernière. Par exemple, elle est responsable des forces d’attraction et de répulsions des porteurs de charges. La gravitation nous est connue à tous par la vie quotidienne : sa tâche est de faire en sorte que des particules massives exercent une certaine force d’attraction les unes envers les autres. La force nucléaire forte veille à ce que les particules matérielles des noyaux, donc aussi les quarks, tiennent ensemble. Pour les processus de fission du noyau (par exemple, les processus radioactifs), c’est la force nucléaire faible qui en est responsable. On comprend que les forces sont provoquées par de petites particules, les bosons déjà cités. Ici aussi, comme les scientifiques l’ont découvert, il en existe tout un zoo. Chaque force a ses propres bosons. La force est transmise parce que ces bosons sont échangés entre les particules. Satyendra Nath Bose (1894-1974) était un physicien et un mathématicien indien. Il fut, avec Einstein, le cofondateur de la statistique Bose-Einstein. Comme cela a déjà été mentionné, les bosons, contrairement aux fermions, sont des particules avec des spins entiers. Le photon est un tel boson et est porteur – et donc cause – d’une force parfaitement déterminée, la force de champ électromagnétique. Donc, si des forces électromagnétiques s’exercent entre deux particules, alors, ils échangent leur photon. Par exemple, si deux électrons se repoussent, cela peut être illustré comme suit :

Le dessin de droite montre un diagramme de Feynman du nom du physicien américain et lauréat du prix Nobel Richard Phillips Feynman (1918-1988). Il abstrait l’évènement qui dans

Page 77: Traduction : Granat Yvan

77

ce cas est encore relativement facile à comprendre. On appelle électrodynamique quantique, la partie de la physique qui se consacre à l’interaction de matière et de bosons dans le champ électromagnétique. Aujourd’hui, elle est considérée comme très accomplie et est démontrée avec une écrasante cohérence. La chromodynamique quantique et la force nucléaire forte. Maintenant, j’aimerais vous présenter la plus puissante des forces connues, même si, au premier abord, nous ne la ressentons pas. Parce que nous la percevons directement, beaucoup pensent que la gravitation est la plus puissante des forces. Mais, ça n’est pas le cas. Au contraire, elle correspond à la plus faible des forces connues. Vous avez déjà appris que la force forte (aussi appelée interaction forte) est responsable de la cohésion des quarks à l’intérieur des protons, neutrons et autres baryons ainsi que des mésons. Selon la théorie, les gluons sont les porteurs de cette force. Ceux-ci sont aussi des particules sans masse qui sont échangés entre les quarks, mais cela d’une façon très particulière. En tout, on connait huit sortes de gluons différents. A chacun d’eux, on attribue une propriété, une couleur déterminée. Les quarks ont aussi une couleur, c’est pourquoi on nomme aussi chromodynamique (de chromos, le mot grec pour couleur), quantique cette théorie complexe. Mais on ne peut pas vraiment se représenter les quarks et les gluons comme des œufs de pâques colorés. Une fois encore, c’est une illustration d’une propriété qui décrit les particules. Mais, pour une meilleure compréhension de la théorie, il est adéquat d’établir une liaison avec notre monde quotidien. A chaque sorte de quarks (up, down, charm, strange, top, bottom), est attribuée une couleur, soit rouge, soit vert, soit bleu. Conformément à cela, leurs antiparticules ont les couleurs antirouge, antivert et antibleu (s’il vous plait, ne me demandez pas ce qu’on imagine avec ces couleurs). Sous ces prémisses, seule la loi suivante prévaut : à l’intérieur d’une nouvelle particule formée (par exemple le proton, le neutre ou le pion), les couleurs soit s’annulent l’une l’autre, soit ils se complètent pour former le blanc. S’annuler signifie que le résultat d’une couleur et d’une anti-couleur est une non-couleur. Tous les pions et les kaons (donc les mésons) consistent en une paire quark-antiquark. Si un quark rouge est présent à l’intérieur d’un méson, un antiquark rouge doit l’être aussi. Jamais, un méson ne consiste en plus de deux particules, car une troisième particule mettrait immédiatement en jeu une nouvelle couleur ou une nouvelle anti-couleur. Les particules qui ne contiennent que des quarks et pas d’antiquarks sont les baryons (les neutrons, protons, lambdas, sigmas et xis). Ils doivent porter en eux trois quarks dont un de chaque couleur, le rouge plus le bleu plus le jaune donne du blanc. C’est pourquoi tous les quarks ne sont pas combinables n’importe comment à l’intérieur de la particule, mais seulement ceux qui sont porteurs de la bonne propriété de couleur.

Page 78: Traduction : Granat Yvan

78

Comme les gluons qui provoquent la force entre les quarks, possèdent eux-mêmes huit couleurs, la théorie est très complexe. Mais il est important de savoir que la force nucléaire forte veille à ce que d’une part, les quarks à l’intérieur d’un baryon ou d’un méson soient maintenus ensemble et d’autre part, que l’ensemble du noyau soit maintenu. En fait, un noyau devrait immédiatement éclater puisque la force de répulsion entre les protons chargés positivement devrait le faire sauter. Mais cela n’arrive pas. Voici pourquoi. D’une part, les neutrons créent une certaine distance entre les protons. D’autre part, les forces nucléaires fortes agissent sur les protons et les neutrons (les nucléons) au-delà d’eux même et lient ainsi les quarks des différents nucléons. Ainsi, l’interaction forte est nettement plus puissante que la force de répulsion entre les protons. On appelle hadrons les particules qui sont soumis à l’influence de l’interaction forte. Les hadrons sont toutes les particules qui regroupent les baryons et les mésons. Par contre, Les leptons, c'est-à-dire les électrons, les muons, les taus et leurs neutrinos n’en font pas partie. En comparaison de la force nucléaire forte, ils ne montrent qu’une infime interaction, ce qui est également logique. Puisqu’ils ne contiennent pas de quarks, les gluons ne peuvent interagir avec eux.

Page 79: Traduction : Granat Yvan

79

Théorie du tout et supercordes Il reste encore deux forces à expliquer. Trois bosons sont responsables de la force nucléaire faible, on les nomme W+, W- et Z0, l’ensemble est dénommé bosons-vecteurs. Il s’agit de particules lourdes qui ne peuvent exercer leurs effets que sur une courte distance. Ils s’occupent de la scission nucléaire et sont les correspondants faibles de la force nucléaire forte. Mais le plus grand problème réside dans la gravitation. Jusqu’à présent, on n’a pas encore réussi à développer une théorie qui décrit cette force d’une manière analogue à l’électrodynamique quantique pour la force électromagnétique ou la chromodynamique quantique pour la force nucléaire forte. On suppose qu’il existe une particule, le graviton qui

Page 80: Traduction : Granat Yvan

80

interagit entre les particules matérielles, mais cela n’est pas encore démontré. Jusqu’à présent, nous avons plus ou moins une théorie qui décrit convenablement la gravitation, c’est la théorie de la relativité générale d’Einstein. Il manque encore une théorie quantique de la gravitation, même si il y a déjà des premiers pas dans cette direction. Les rêve du scientifique est de trouver une théorie qui réunisse toute les quatre forces fondamentales. De cette manière, on espère obtenir une vision profonde de l’univers et de sa structure. Elle ne pourra sûrement pas tout prédire. Mais elle constituerait un bon fondement scientifique sur lequel de nouvelles connaissances se formeraient rapidement et sûrement. On suppose qu’autrefois, toutes les forces étaient rassemblées en une seule, la force originelle. Celle-ci n’a existé que très peu de temps après le bing bang. Ensuite, elle s’est divisée dans les quatre forces que nous connaissons. Maintenant, le but est de décrire cette force originelle, au moins mathématiquement. Il y a déjà des premiers pas : la théorie de Weinberg-Salem affirme qu’à de hautes énergies (plus de 100 milliards eV), les trois vecteur-bosons sont identiques au photon qui est bien le porteur de la force électromagnétique. Au centre de recherche nucléaire à Genève, on a mené des expériences de ce type dans un accélérateur de particules. Il se compose d’un immense anneau souterrain à l’intérieur duquel des particules peuvent être tirées les unes sur les autres. L’expérience a montré que les prévisions concordent avec les résultats obtenus. Donc, la force électromagnétique et la force nucléaire faible ont été réunies. Probablement, peut-on relier d’une manière similaire, la force nucléaire forte aux deux autres. Cependant, pour cela, la preuve fait défaut car il faudrait recourir à une énergie qui n’est pas disponible dans nos accélérateurs de particules. Avec cette « Grand Unified Theory » (GUT), on déduit que la force nucléaire forte dispose d’une propriété que l’on décrit comme une liberté asymptotique : plus importante est l’énergie ajoutée, plus faible devient l’interaction forte. De cette manière, on pourrait affaiblir l’interaction forte pendant qu’on renforcerait les forces électromagnétique et faible par un ajout d’énergie. Le résultat est alors logique : A un certain moment, les deux forces sont égales. Donc, comme le dit Stephen Hawking dans son bestseller « une brève histoire du temps », ces trois forces ne seraient que différents aspects d’une force unique. Avec cette « uniformisation de l’énergie », toutes les particules avec un spin de ½ (donc ce sont tous des fermions) doivent aussi avoir la même apparence. Donc, ils ne seraient aussi que différents aspects de la même particule comme les vecteurs-bosons sont différents aspects des bosons. Et qu’en est-il de la gravitation ? Si on ne dispose pas encore d’une théorie cohérente pour cette force, comment pourrait-on donc la réunifier ? Les supercordes, quelque chose de très abstrait, pourraient s’avérer une solution sur la voie de cette « Theory of everything (TOE) ». Selon celle-ci, nos particules ne forment pas un point dans l’espace-temps, mais une ficelle. Jusque là, on considérait une particule comme un point à un certain endroit et à un certain moment. Maintenant, on essaye de décrire une particule comme une ficelle dans l’espace-temps. Ces cordes ont une certaine longueur et se déplacent en avant avec le temps. Par conséquent, ils décrivent une sorte de surface en deux dimensions. Mais cette surface peut-être courbée. Ainsi, les côtés gauche et droit de la surface se rencontrent et forment un cylindre dont La coupe est alors circulaire.

Page 81: Traduction : Granat Yvan

81

Ce nouveau concept qui, en 1984, fut massivement promu par les deux physiciens Michael Green et John Schwarz, pourrait éliminer beaucoup d’incohérences qui étaient apparues dans la recherche de réunification. Elle prédit quelque chose que l’on appelle super symétrie : selon elle, les fermions (les particules matérielles avec des demi-spins) et les bosons (les porteurs de force avec un spin entier) sont, encore une fois, différents aspects d’une seule et même particule, comme cela est déjà décrit pour les vecteurs-bosons et les fermions. Ainsi, on aurait inclus le graviton dans la théorie. La théorie des supercordes suppose un espace en 10 dimensions, ce qui semble assez étonnant si nous considérons notre espace temps en quatre dimensions réellement perceptibles (trois dimensions spatiales plus une dimension de temps). Mais, ce fait ne fausse pas automatiquement la théorie : on suppose que les six autres dimensions sont si finement enroulées que nous ne pouvons pas les percevoir. Elles ne doivent pas dépasser les 10-35 mètres, tandis que les trois autres dimensions spatiales de notre univers ont une taille de 1023 mètres. Mais atténuons de suite une certaine euphorie : la théorie des cordes n’est rien d’autre qu’un modèle mathématique. Elle essaie d’unifier l’état de chose de la théorie de la relativité avec les concepts de physique quantique. Mais dans ce domaine, on n’en est encore qu’au début. Il faudra encore plusieurs décennies avant qu’on ait des théories à peu près solides. Donc, dans un avenir proche, il ne faut pas s’attendre à un succès.

Page 82: Traduction : Granat Yvan

82

Après avoir lu ce chapitre, vous avez une certaine idée de la complexité avec laquelle notre monde atomique est bâti. Les particules présentées ici ne sont pas les seules, et de loin. Il y en a encore quelques unes. Mais, clairement, elles dépasseraient le cadre de cet exposé. Toutefois, vous savez déjà beaucoup de choses au sujet des particules, des forces et de leur effet. A ce propos, beaucoup d’intéressantes conclusions résultent de la physique quantique. Dans le prochain chapitre, j’aimerais vous en présenter quelques-unes. Résumé Pour expliquer les quatre forces fondamentales, on conçoit que, dans le cadre de la physique quantique, des bosons porteurs de charge sont échangés entre les particules. L’électrodynamique quantique décrit la force électromagnétique avec un échange de photons. La chromodynamique quantique le fait avec l’échange de gluons entre les quarks. La force faible est provoquée par trois autres particules (W+, W-, Z0). La théorie Weinberg Salem prédit une réunification de la force nucléaire faible et de la force électromagnétique. En effet, à une haute vitesse, les trois vecteurs-bosons de la force faible exercent des interactions comme un photon. Théoriquement, la force nucléaire forte peut aussi être reliée de cette manière (Grand Unified Theory (GUT)). La « Theory of Everything (TOE) doit aussi relier la gravitation avec les trois autres forces de manière similaire, mais le chemin est encore long. Pour cela, la théorie des supercordes peut aider. Selon elle, une particule n’est plus décrite comme un point mais comme une ficelle à l’intérieur de l’espace-temps.

Page 83: Traduction : Granat Yvan

83

Chapitre 13 : La conception de l’espace-temps en physique quantique. Le principe d’incertitude d’Heisenberg, la répartition de probabilités d’ondes de Schrödinger, le zoo des particules, le dualisme ondes-particules et tous les autres concepts dont vous avez entendu parler jusqu’ici nous ouvrent une nouvelle vision de l’espace-temps, comme la théorie de la relativité l’a déjà fait. Dans de précédents chapitres, vous avez déjà fait connaissance avec les principes de la relativité. Maintenant, j’aimerais rapidement vous informer au sujet des conclusions de la physique quantique concernant notre relation avec l’espace et le temps. La vacuité5 n’est pas si vide que ça ou le rayonnement du trou noir Quand un espace est purgé de toute matière (donc de tout atome) et est isolé de tout rayonnement, on appelle vacuité cette espace ainsi produit. Conclusion logique : en lui, il ne se trouve rien. Mais nous avons déjà vu qu’un « tapis » d’antimatière emplit l’ensemble de l’espace, donc, notre vacuité n’est pas si vide que ça. Au premier abord, nous n’en remarquons rien. Mais il y a un effet que l’on décrit en termes de fluctuations quantiques et avec l’aide duquel on peut effectivement créer de nouvelles particules à partir du néant. La relation d’incertitude d’Heisenberg dit qu’on ne peut déterminer simultanément et avec précision, l’emplacement et l’impulsion d’une particule. On peut aussi appliquer cela à un champ de force : ici, cela veut dire qu’on ne peut pas exactement déterminer la force d’un champ et son taux de variation. Cependant, s’il y a un champ dont la force est nulle, alors, son taux de variation, lui aussi, est nul. Dès lors, dans une vacuité, on aurait pu déterminer exactement les champs de force et son taux de variation. En effet, ils sont nuls. Cela est contraire au principe d’incertitude d’Heisenberg. Dès lors, il doit aussi y avoir de l’énergie dans un espace, au premier abord totalement vide en énergie et en masse. Ainsi, on en arrive au résultat qu’à l’intérieur d’une soi-disant vacuité, s’établissent spontanément des quantas d’énergie et des gravitons (si ceux-ci existent bien). Mais aussitôt, ils sont anéantis. Une antiparticule a toujours autant d’énergie négative que sa contrepartie réelle (vous vous souvenez de la déduction de l’antimatière par la théorie de la relativité restreinte). Une loi de la physique affirme qu’une particule et une antiparticule s’annihilent l’une l’autre quand elles se rencontrent. Par exemple, un électron et un positron s’effacent, à l’occasion de quoi, un rayon gamma est émis. Quelque chose de similaire se produit dans la vacuité. Une paire émerge toujours simultanément : un quanta et un anti-quanta ou un graviton et un anti-graviton. Mais chacun de ceux-ci n’existe que pour une courte durée et ils s’annulent les uns les autres (le terme technique pour cela est annihiler). Les trous noirs montrent que de tels concepts ne sont pas seulement des chimères. Selon l’opinion dominante de la science, notre univers est né d’une explosion initiale. A un minuscule petit endroit, plus petit qu’un atome, toute la matière de l’univers était concentrée. L’explosion de ce petit objet, appelé singularité, fut l’heure de naissance de notre univers. Il est difficile de se représenter une telle singularité. Il est établi qu’avant

5 NDT : en allemand, l’auteur utilise le terme Vakuum pour le substantif vide et leer pour l’adjectif. Malheureusement, cette distinction n’existe pas en français. Dès lors, nous employons le terme vacuité pour désigner le substantif, même s’il est peu utilisé dans notre langue.

Page 84: Traduction : Granat Yvan

84

l’explosion de la singularité, toutes les lois physiques, hormis la force devaient être suspendues. Et ce qui est beaucoup plus impressionnant : les temps était arrêté ! J’ai déjà abordé cela dans le chapitre consacré à la théorie de la relativité : Vous avez appris que la lumière (c'est-à-dire l’espace temps) est courbée par des objets massifs. Plus grande est la masse, plus fort est cet effet. Dans la singularité, l’effet gravitationnel est si fort que rien, même la lumière, ne peut s’échapper de la structure. La raison de cela est la courbure massive du continuum espace-temps. Si même la lumière n’est pas en état de vaincre la singularité, alors, il est aussi impossible pour tous les autres objets de s’échapper de la pesanteur compacte. Chaque masse est aspirée en règle. Ces singularités constituent aussi l’explication du phénomène « trou noir ». Ils ne sont rien d’autres qu’une sorte de singularité de type explosion originelle qui avale tout ce qui leur vient à la bouche. Mais si les trous noirs mangent tout et retiennent même la lumière, comment pouvons nous voir ces objets ? Pour cela, on doit examiner cette structure de plus près. Un trou noir a un horizon d’évènement. Le point auquel la lumière peut tout juste échapper à la gravitation du trou marque celui-ci. Tout ce qui est en-dessous demeure interdit à notre vue. Il s’agit du rayon de Schwarzschild. Maintenant, on considère que non seulement la lumière, mais aussi de la matière peut tourner autour d’un trou noir, toujours autour du seuil entre une chute dans la profondeur noire et le voyage dans l’infinité de l’espace. De ce fait, un trou noir est refermé : On voit des mouvements de matière autour d’un cercle noir interne.

Entretemps, Stephen William Hawking (né en 1942) a eu une toute nouvelle idée et est arrivé à la conclusion : les trous noirs ne sont pas noirs ! Ce concept est directement fondé sur le principe d’Heisenberg et sur les fluctuations quantiques qui se déroulent dans la vacuité. Chaque trou noir émet du rayonnement. Une seule question se pose : « Comment

Page 85: Traduction : Granat Yvan

85

celui-ci peut-il s’échapper du trou noir ? ». La réponse à cela réside dans l’horizon d’événement du trou noir. Comme cela a déjà été mentionné, des paires particules-antiparticules se forment au sein de la vacuité. Normalement, ceux-ci s’annihilent après un temps très court. Mais il peut arriver qu’une des deux particules soit absorbée par la gravitation du trou noir. A l’intérieur de celui-ci, chaque masse est emplie d’énergie négative puisque selon Hawking (dans sa brève histoire du temps), « le champ de gravitation à l’intérieur du trou noir est si fort que là-bas, une particule réelle peut même montrer de l’énergie négative ». Donc, une particule avec de l’énergie négative ressemble à une particule qui avait auparavant de l’énergie positive et qui maintenant porte en elle de l’énergie négative seulement par l’effet de la gravitation. Comme elle peut « se sentir comme une particule réelle », elle n’a plus besoin de trouver une partenaire d’énergie positive pour qu’elles s’anéantissent les unes les autres. A l’extérieur du trou noir, les particules réelles peuvent maintenant essayer de chercher à s’échapper de la force de gravitation, ce qui, avec un peu de chance, peut réussir. Nous pouvons considérer cette évasion comme un rayonnement. Donc, elle ne vient pas vraiment de l’intérieur du trou mais de son horizon d’évènement. Cette explication est une application pratique de la fluctuation quantique dans la vacuité. Retour vers le passé – Quand, pour les particules, le temps ne court plus en ligne droite. Par l’analyse du diagramme de Feynman présenté plus haut, on arrive à un résultat très bizarre : Des particules peuvent remonter le temps. Dans ce sens, une paire électron-positron peut être envisagée dans un diagramme de Feynman. Sur ce point, il faut s’informer plus complètement au sujet de ce type de diagramme. Les coordonnées de temps sont portées ici sur l’axe des X et on porte le temps sur l’axe des Y. dans le cas d’un électron solitaire qui émet un quanta de rayon gamma, cela pourrait se passer comme le montre le diagramme ci-dessous. Au moment de l’émission, l’électron est dévié vers la droite par la force de recul du quanta. Les flèches indiquent dans quelles directions les électrons circulent à travers le diagramme, dans ce cas, du bas vers le haut.

Maintenant, il faut montrer un diagramme de Feynman dans lequel une paire électron-positron se rencontrent et s’annihilent l’un l’autre. Tout d’abord, à l’intérieur du diagramme, tout les deux se dirigent du haut vers le bas. Ils se rencontrent, s’annihilent et un quanta de

Page 86: Traduction : Granat Yvan

86

gamma est émis (vers la gauche). Mais maintenant, voici le truc et ce n’est rien de plus qu’une astuce mathématique ! Le même digramme peut s’interpréter autrement. Tout d’abord, nous ne prenons qu’un seul électron qui traverse l’espace. A un certain moment, cet électron se fissure spontanément, émet un quanta de gamma et est renvoyé dans le temps (vers la droite) par le rebond. Comme vous le voyez, la flèche montre que l’électron de droite va du haut vers les bas. Le temps est porté sur l’axe des y et dès lors, le trajet temporel s’effectue en sens inverse.

Trou de ver par effet Casimir ? Selon la théorie de la relativité, aucun objet ne peut voler plus vite que la lumière (à l’exception des tachyons). Mais, rivés à la vitesse de la lumière, nous aurions encore besoin de 100.000 ans pour rejoindre le centre de la voie lactée. C’est pourquoi, on a passé au crible toutes les éventualités de la théorie de la relativité et on a aboutit à quelque chose. Les trous de ver pourraient nous permettre des voyages d’une rapidité insoupçonnée. Comme leur nom l’indique, ceux-ci ont la forme de longs tuyaux qui traversent l’espace-temps. Ici aussi, l’opération est basée sur les fluctuations quantiques : Vous savez que notre univers a une longueur, une largeur et une profondeur qui sont intimement liées au temps. L’espace quadridimensionnel peut être courbé, cela aussi vous l’avez déjà appris. Dans une situation normale, notre espace est courbé comme une sphère positive. Mais pour un trou de ver, on peut essayer de courber l’espace négativement, à l’image d’une selle. Ici, on peut avoir recours à l’Effet Casimir : Deux disques sont placés à une certaine distance l’un de l’autre. A l’intérieur et à l’extérieur des disques, des particules, des photons par exemple, sont produites comme résultat de fluctuations quantiques. Pour ces quantas, les disques métalliques jouent le rôle de miroirs et les quantas sont ainsi rejetés ici et là de manière permanente. Si la distance entre les deux plateaux n’est pas exactement équivalente à un multiple de la longueur d’onde du photon, les hauts comme les creux des ondes des deux photons ne peuvent complètement se recouper. Après un peu de temps, il arrive que des hauts et des creux d’ondes se superposent et vous savez déjà ce qui se passe : les ondes se

Page 87: Traduction : Granat Yvan

87

compensent l’une l’autre. Ainsi, nous devons conclure ceci : l’énergie à l’intérieur des disques est plus petite qu’à l’extérieur, puisque une partie de l’énergie quantique est compensée à l’intérieur des disques. On peut même prouver cela. Puisque l’énergie à l’extérieur du disque est plus importante, les quantas extérieurs sont plus rapprochés que ceux qui frappent les plaques. En laboratoire, on a pu montrer cela et en démontrer l’effet. Mais, en conséquence, on déduit quelque chose d’encore plus significatif : Comme l’énergie à l’intérieur des disques est faible, L’énergie potentielle devient négative par rapport à l’environnement normal. Cela veut dire que la courbure positive du continuum espace-temps devient négative. Nous obtenons un dessin équivalent à une selle. Cette courbure est une prémisse à la création de trous de ver. Cependant, je dois tempérer l’euphorie que vous ressentez peut être : Il ne s’agit ici que d’une théorie. Personne d’entre nous ne vivra jamais une application pratique de celle-ci.

Combien y’a-t-il d’univers ? Le point d’interrogation, telle qu’il est formulée dans le titre, vous étonnera peut-être au premier abord. Votre réponse pourrait être : « un naturellement, à savoir le nôtre ». La réponse d’un physicien quantique serait vraisemblablement : « Pour vous un, à savoir le vôtre ». Vous avez en déjà un peu appris au sujet de l’interprétation dite de Copenhague. Vous savez quelles curieuses prédictions elle fait. Le chat de Schrödinger a été un résultat de ces réflexions. Donc, tous les états possibles d’un système quantique existent simultanément. C’est seulement au moment de notre observation que nous forçons cette superposition des fonctions d’ondes à s’effondrer. Ainsi, le système doit « prendre une décision » et emprunter

Page 88: Traduction : Granat Yvan

88

un chemin. Dans le cas du chat de Schrödinger, cela devrait signifier que le système doit soit être clément et laisser le chat en vie, soit lui infliger une peine de mort et l’exécuter. Ce modèle de fonction d’onde collaboratrice peut-être convenablement décrit avec les mathématiques. En outre, on peut imaginer quelque chose au sujet de ce processus de décision, au moins dans les grandes lignes. Dans les années 1950, une tout autre conception de ce processus a été publiée. Elle est fondée sur la supposition que pour chaque décision que doit prendre un système quantique, ce n’est pas seulement une des possibilités qui devient réalité, mais toutes ! Ces réalités existeraient toutes parallèlement, il n’y a donc pas seulement un monde (un univers), mais un nombre incroyable dans lesquels se reflètent toutes les possibilités de décisions quantiques. Mais pour nous, à chaque moment de décision, seulement une possibilité se réalise. Les autres existent bel et bien, mais pas pour nous. A la limite, on pourrait dire que chacune a son propre univers privé. On nomme hyperespace l’espace dans lequel se trouve cette incroyable quantité d’univers parallèles.

En pratique, cela signifie pour le chat de Schrödinger : Dans notre réalité, le chat a peut-être survécu, mais, aussi triste que cela soit, il y aura quelque part un univers parallèle dans lequel il n’a pas survécu. A partir de là, les auteurs de science-fiction se sont demandés si on ne pouvait pas facilement passer d’une réalité à l’autre. Pendant qu’on quitte cet univers (peu importe lequel), on émigre dans un autre qui lui correspond pour y retrouver le chat mort. Mais à ce sujet, la réponse est simple et saisissante : non. On ne peut se représenter les univers comme si tous les parallèles se situaient les unes à côté des autres, et qu’on aurait seulement besoin de changer de file (comme dans une bande d’autoroute) pour aboutir à une autre réalité. La seule façon de modifier la réalité du chat mort serait de remonter le temps jusqu’au moment de la décision quantique et d’à partir de là, essayer de s’engager dans la voie d’une autre réalité.

Page 89: Traduction : Granat Yvan

89

Ce modèle qui est mathématiquement examiné à fond et est en harmonie avec la théorie quantique existante est très controversé, ce qu’on peut facilement comprendre. Pour beaucoup de physiciens, la préférence est donnée à la fonction d’ondes, même si cela soulève au moins autant de questions que le modèle de réalités existantes en parallèle. Mais on doit accepter qu’il soit aussi un modèle possible, même si, naturellement, aucune preuve mesurable ne peut être apportée. Résumé Pour maintenir la validité du principe d’incertitude d’Heisenberg dans la vacuité, on introduit les fluctuations quantiques au sein desquelles des paires particules-antiparticules peuvent exister spontanément, mais dont la durée de vie est limitée. Stephen Hawking a reconnu ce phénomène comme cause du rayonnement du corps noir. A l’aide de l’effet Casimir, il est possible de courber négativement l’espace, pour peut-être, un jour, pouvoir produire des trous de vers. Selon le modèle multivers, à chaque décision quantique, l’univers se divise en tous les univers alternatifs possibles qui alors existent parallèlement. Cependant, la réalité de ces univers alternatifs est quasiment inaccessible. Le diagramme de Feynman montre qu’il y a une possibilité réaliste que des particules peuvent remonter le temps.

Page 90: Traduction : Granat Yvan

90

Chapitre 14 : Problème de physique quantique dans l’architecture du processeur. En 1936, l’ingénieur allemand Konrad Zuse (1910-1995) construisit le premier ordinateur du monde qui était contrôlé par un programme. Pour ce faire, il utilisait le système dit binaire qui est basé sur les chiffres 0 et 1 correspondant aux deux états « courant ouvert » et « courant fermé ». Si, au début, ses installations étaient encore purement mécaniques, ses successeurs avaient déjà complexifié les circuits électroniques. Le développement dans le domaine du traitement électronique des données a été fulgurant. Les capacités de calcul et de mémoire ont augmenté à un rythme explosif. Ce développement est fondamentalement du à une découverte : le chip de silicium. Par la miniaturisation de ses composantes, la complexité comme la vitesse du calcul ont pu augmenter. La loi de Moor affirme que l’on peut s’attendre à un doublement de la puissance de traitement tout les 18 mois. Dans le passé, ceci a été confirmé. Cependant, il n’est pas possible de construire les différents composants d’un chip à une taille aussi petite que l’on désire. Les lois de la théorie quantique dressent des barrières presque infranchissables, même si il y a des tentatives pour les contourner. Afin de pouvoir tout de même augmenter la vitesse des futurs ordinateurs, on tente d’emprunter un tout nouveau chemin : celui de l’ordinateur quantique. Un jour, il devrait devenir réalité et ainsi mettre à la disposition de l’humanité des vitesses des calculs dont pour l’instant, nous pouvons seulement rêver. Ce chapitre informe sur les problèmes des architectures des ordinateurs actuels et sur les alternatives possibles. Ensuite, le prochain chapitre se consacrera à l’ordinateur quantique. Certainement, ce n’est pas trop dire que l’on considère un calculateur bâti sur base quantique comme une des plus grandes victoires de la théorie quantique. Le chip de silicium Un ordinateur est basé sur le fait que l’on peut représenter n’importe quel chiffre en base décimale à l’aide de deux autres chiffres, le 0 et le 1. L’exemple suivant va éclairer plus complètement ce principe binaire : supposons que nous disposions du nombre 5670. Sans réfléchir longtemps, nous savons immédiatement ce qui est entendu par ce nombre. Mais mathématiquement, il est déterminé comme suit : . Vous voyez qu’à chaque chiffre du nombre, est attribué une puissance. La puissance de droite représente les unités (10 puissance 0 donne 1). La puissance suivante représente les dizaines, celle qui suit les centaines etc. puisque le chiffre 10 représente la base de cette liste, on parle de système décimal. Mais un nombre de ce type ne peut pas être implanté dans un ordinateur, par contre un nombre en base 2 peut l’être parfaitement. Le calcul suivant décrit la méthode: ( )

Page 91: Traduction : Granat Yvan

91

On additionne les puissances en base deux, ainsi, on obtient la représentation binaire de 5670 écrit en base décimale. A chaque fois, Les préfacteurs possibles de chaque puissance sont la base -1. Donc dans le système binaire, les préfacteurs 0 à 9 sont disponibles, dans le système en base 5, les préfacteurs sont 0 à 4 et par conséquent, 0 et 1 dans le système binaire. Dans la notation, on peut s’épargner les puissances. Ainsi, pour le chiffre 5670 en base décimale, nous n’écrivons pas les puissances de 10 à l’arrière des préfacteurs. Par convention, nous savons que les chiffres 5,6,7 et 0 sont précisément les préfacteurs de chaque puissance décimale. On peut faire de même avec le système binaire : au lieu de noter la longue chaîne des puissances binaires, on écrit seulement les préfacteurs. Dans notre exemple, ce serait : 1011000100110. Donc, cela donne :

( ) ( ) L’index précise à quelle base numéraire on a affaire. Une chaîne de 0 et 1 peut être représentée dans un ordinateur : le un est symbolisé par « commutateur fermé, le courant passe », un zéro par « commutateur ouvert, le courant ne passe pas ». Un micro chip n’est rien de plus qu’un appareil qui contient des commutateurs qui ouvrent ou ferment le courant. Mais ces commutateurs ne ressemblent en rien au interrupteur lumineux ou à l’interrupteur On/Off de votre appareil de télévision. Les interrupteurs dont je vous parle ici, sont des transistors. Un transistor dispose de deux entrées et d’une sortie : le courant peut entrer par l’émetteur dans le transistor et en ressortir par le collecteur. Mais pour cela, Le commutateur, qui est représenté par la porte, doit être fermé.

Il existe différentes sortes de transistor, le principe de fonctionnement décrit ici à titre d’exemple est le transistor n-MOS de type enrichissement. Un Chip est formé de silicium, un élément chimique avec 14 protons dans le noyau. En conséquence, il y a 14 électrons dans l’enveloppe : 2 dans la couche interne, 8 à la deuxième et 4 à la troisième. S’il y a du silicium très pur, alors on forme une grille uniforme et stable. Les atomes de silicium partagent leurs quatre électrons de la couche externe (électrons de valence) avec d’autres atomes du même type qui, à leur tour, mettent leurs électrons à disposition. Il faut s’imaginer qu’un atome de silicium peut s’estimer « heureux », s’il y a 8 électrons sur sa couche externe. Cela signifie qu’il doit s’en procurer quatre de plus et il fait cela en les partageant avec d’autres. De cette manière, s’établit un lien stable dénommé le lien de la paire d’électron. Cette structure cristalline est électriquement neutre vis-à-vis de l’extérieur, ce qui n’est pas surprenant, puisque le nombre des électrons et des protons ne s’est pas modifié.

Page 92: Traduction : Granat Yvan

92

Cependant, au début, l’industrie de l’ordinateur ne pouvait pas faire grand-chose avec ce cristal de silicium très pur. Dans ce but, le matériel doit contenir une charge électrique ou plutôt une charge positive d’un côté et une charge négative de l’autre. Pour y arriver, on a inventé un procédé que l’on nomme « dopage ». Pour cela, des atomes étrangers sont placés dans le silicium. Tout d’abord, il faut expliquer cela en se basant sur la dotation négative (dotation-n). Le but est donc de « passer en contrebande » une charge négative au sein du silicium électriquement neutre. En principe, c’est relativement simple (ici, il n’y a pas lieu d’insister sur le procédé technique). Avec le remplacement d’un atome de silicium par un atome de phosphore, le but recherché est déjà atteint. Le phosphore a 15 électrons, soit un de plus que le silicium. Quatre électrons sont nécessaires pour faire passer la zone de valence de l’atome de silicium de 4 à 8 électrons. Un électron est donc « superflu » et sert de porteur de charge négative. Si on veut obtenir une dotation-p (donc passer une charge positive en contrebande), une possibilité consiste à intégrer un atome d’aluminium dans la grille du cristal. L’aluminium a 13 électrons soit un de moins que le silicium. Un atome de silicium dans l’entourage de l’atome d’aluminium ne peut donc être servi. Dans le contexte d’une grille électriquement neutre, il apparait comme un écart positif, comme un électron positif (comme un positron).

Page 93: Traduction : Granat Yvan

93

Le transistor n-MOS de type enrichissement consiste en un émetteur doté n ou collecteur et d’un domaine doté p qui est placé sous le train. Le but est qu’un courant puisse circuler entre les deux domaines dotés n. A l’heure actuelle, ce n’est pas possible puisque le domaine dotée p barre la route aux électrons. Bien sûr, maintenant, vous pourriez poser la question : Pourquoi les électrons négatifs du domaine n ne sont-ils pas attirés par les trous positifs des domaines p ? Cette question est judicieuse et il n’est pas facile d’y répondre. Il est un fait que les électrons sont attirés par les trous positifs des conducteurs p. Mais, par le processus d’attraction, il se produit un manque d’électrons dans le domaine doté n, ce qui a pour conséquence que les électrons y sont à nouveau attirés. Cela à pour conséquence que la couche p attire de plus en plus d’électrons, ce par quoi, survient un manque d’électron dans la couche n et ainsi de suite. On pourrait continuer ainsi indéfiniment jusqu’au moment où ce va-et-vient se stabilise et aboutisse à un état d’équilibre. Maintenant, pour laisser circuler le courant à travers le transistor, on doit placer une tension positive à la porte. Ainsi, les régions positives des matériels-p sont déplacées et les électrons négatifs de la matière-n sont régulièrement attirés. Il en résulte un fil conducteur pour les électrons, le courant circule.

Page 94: Traduction : Granat Yvan

94

Les frontières physiques du chip – l’effet tunnel L’amélioration des performances des processeurs réside principalement dans la miniaturisation des transistors individuels. Mais, plus petites sont les structures, plus intensément, se produit un phénomène que l’on appelle l’effet tunnel. Il s’agit d’un problème de physique quantique qui est basé sur le principe d’incertitude d’Heisenberg. Au chapitre 12, vous avez déjà appris quelques éléments au sujet des forces de notre univers. Entre autre, vous avez appris que les charges des forces électromagnétiques, soit s’attirent, soit se repoussent et que la force nucléaire forte maintient le noyau atomique. C’est donc une espèce de contrepartie de la force électromagnétique dont la tâche est de faire se repousser les protons de même charge au sein du noyau. Mais la question est alors, pourquoi les processus de scissions radioactives peuvent quand même se produire si la force nucléaire forte maintient le noyau. La réponse à cela est l’effet tunnel. Vous pouvez vous représenter la situation de l’énergie à l’intérieur du noyau comme un barrage d’eau que la population doit protéger d’une inondation. Si l’eau est en dessous de la couronne, les habitations sont protégées. Si l’eau monte encore, la cité n’est plus protégée, l’eau envahit la vallée. Il en est de même dans un noyau atomique. La puissante force d’attraction joue le rôle du barrage. L’énergie des protons doit être plus grande que la hauteur de la couronne pour se libérer de la liaison. Mais si un proton arrive au sommet, la force électromagnétique fait en sorte que le proton soit repoussé, à l’image de la pente qui accélère l’eau, ainsi la force naturelle est imparable. Cependant, les lois de la mécanique quantique affirme qu’aucun proton unique n’a assez d’énergie pour atteindre le sommet de la digue (dénommé mur de potentiel). Cependant, la relation d’incertitude d’Heisenberg permet malgré tout aux protons de surmonter le mur. Pour cela, il y a deux explications, l’une est un peu plus simple, l’autre un peu plus compliquée. D’abord, j’aimerais exposer la plus simple. La relation d’incertitude affirme que l’emplacement d’un quanta n’est pas parfaitement déterminable. Une particule à l’intérieur du mur de potentiel peut aussi, sous certaines conditions, à court terme, être appréhendée comme une particule à l’extérieur du mur. Les équations d’ondes de Schrödinger n’attribuent aux particules qu’une infime possibilité de résider en dehors du mur de potentiel, mais la probabilité n’est pas complètement nulle. Il est vrai que le proton n’a jamais l’énergie suffisante pour surmonter la barrière, mais l’incertitude au sujet de l’emplacement permet une courte résidence à l’extérieur. Il en est de même avec l’énergie qui, simultanément donne la deuxième explication : ce n’est pas seulement l’emplacement, mais aussi l’impulsion qui n’est pas exactement déterminable. L’impulsion, comme vous le savez déjà, est une mesure concernant le contenu en énergie de la particule étudiée. Il est donc aussi possible qu’une particule acquiert provisoirement l’énergie nécessaire et ainsi puisse surmonter le mur de potentiel. Il semble que la particule traverse le mur de potentiel à travers un tunnel, d’où le nom. C’est similaire à de l’eau qui à travers de petites fissures et des trous de souris, peut chercher une voie à travers la digue et ainsi s’en échapper. A l’intérieur d’un noyau, cela signifie que des protons peuvent quitter la liaison et donc provoquer la fission radioactive.

Page 95: Traduction : Granat Yvan

95

Dans ce contexte, vous devez toujours avoir à l’esprit que la relation d’incertitude n’est pas seulement une question de mesure, mais une propriété fondamentale à laquelle chaque particule obéit. Même avec les expériences les plus habiles, l’emplacement et l’impulsion ne se laissent pas exactement mesurer. Ce n’est pas un problème de mesure, mais un problème de particules, lesquelles ont la propriété ne pas être exactement mesurables. A partir d’une certaine dimension (500 nanomètres représente la frontière critique), il y a un effet tunnel similaire pour les transistors. Dans les conditions normales, des électrons ne peuvent traverser les isolants. Au chapitre trois, vous avez pu lire que l’électricité est un flux d’électrons et que les isolants ont la propriété de n’en conduire aucun. Mais le problème est qu’à partir d’une certaine dimension, des électrons peuvent simplement traverser la couche d’isolant par effet tunnel, phénomène résultant de l’incertitude de l’emplacement et de l’impulsion. De la sorte, un transistor n’a bien sûr plus aucun rôle de commutateur puisque des électrons le traversent de part en part. Par cela, le transistor est devenu sans effet. Mais il existe un développement qui profite totalement de cet effet tunnel, le transistor dit effet tunnel quantique. Le transistor effet tunnel quantique Ce transistor ne fonctionne pas directement sur la base « courant oui », « courant non », mais représente l’information 0 et 1 par la position relative de deux électrons l’un par rapport à l’autre. Le fondement est une couche d’oxyde de silicium sur laquelle est portée quatre îles métalliques, celles-ci forment un quadrant. Ces quatre disques de métal contiennent deux électrons. En raison des forces de répulsions, tous les deux prennent la position sur le métal qui forme la plus grand distance entre eux. Il en résulte qu’ils occupent les sommets des deux îles métalliques et se font face sur la diagonale.

Page 96: Traduction : Granat Yvan

96

On place alors une tension et on peut donc amener un électron de l’autre côté du quadrant par effet tunnel. Le résultat est que maintenant, le principe de la plus longue distance entre les deux électrons n’est plus respecté. L’autre électron subit donc une force de répulsion et peut à l’aide de l’effet tunnel, sauter sur l’autre côté du quadrant. Selon la configuration diagonale que les électrons adoptent l’un par à l’autre, ils représentent le 0 ou le 1. L’avantage est que les commutations peuvent être réalisées nettement plus vite. Par contre, l’inconvénient est que ce n’est possible qu’à des températures extrêmement basses, proches du zéro absolu. Bien sûr, un ordinateur ne consisterait pas en un seul transistor de ce type, mais en millions. Mais il faut encore mener des recherches en vue de d’interconnexions efficaces de ces transistors. Supraconducteurs comme commutateur ? Les supraconducteurs ont la capacité de faire circuler un courant sans frein. En situation normale, les conducteurs électriques ont une résistance qui inhibe le courant électrique. Mais si on refroidit des matières déterminées (par exemple de l’hélium ou du mercure), ils perdent cette propriété d’inhibition et le courant peut circuler sans entrave. En 1911, cet effet a été découvert pour la première fois par le physicien hollandais Heike Kamerlingh Onnes (1853-1926). La condition est un refroidissement de la matière à une température proche du zéro absolu. Les processus qui se déroulent au sein de la matière sont de nature purement quantique. Les électrons obéissent à la statistique Fermi-Dirac, ils sont donc des fermions et ont un spin demi-entier (± ½). Comme ils ont ces propriétés, il obéissent aussi au principe de Pauli qui

affirme que deux fermions ne peuvent jamais se trouver dans le même état quantique à

l’intérieur d’un système (par exemple à l’intérieur d’un atome). Certes, tout les électrons

doivent tout d’abord occuper les niveaux d’énergie les plus bas, mais dès que ceux-ci sont

complets, ils doivent, en vertu du principe d’exclusion, occuper les niveaux d’énergie plus

hauts.

Page 97: Traduction : Granat Yvan

97

Cependant, sous certaines conditions, il peut se passer quelque chose de vraiment

remarquable : Deux électrons qui normalement se repoussent, nouent une faible liaison. Cette

liaison a pour effet que vue de l’extérieur, ils agissent comme une particule unique. En vertu

des lois de la physique quantique, leurs spins s’additionnent (par exemple -½+ ½ =0). Donc, il

en résulte des spins entiers ce qui confère aux électrons des propriétés totalement nouvelles.

Les particules avec un spin entier suivent, comme les bosons, la statistique bien connue de

Bose-Einstein. Les bosons ne sont pas soumis au principe d’exclusion et ainsi, les électrons

peuvent, tous ensemble, adopter le plus faible niveau d’énergie possible. La distance entre le

plus faible niveau d’énergie et le suivant qui est disponible est si grande que des quantas avec

un contenu en énergie relativement importants seraient nécessaires pour exciter les électrons.

Pour cette raison, les électrons peuvent encore à peine interagir avec les atomes du matériel

conducteur. Une émission d’énergie n’est pas possible puisque les électrons se trouvent déjà

au niveau d’énergie le plus bas. Une absorption d’énergie n’est pas possible puisque les

atomes n’en disposent pas assez pour cela. Cependant, pour attendre la dernière couche, on

peut retirer de l’énergie à la matière, c’est-à-dire, la refroidir. Mais si on ajoute de la chaleur

et ainsi de l’énergie à la matière, les électrons peuvent être montés à de plus hauts niveaux

d’énergie et briser le faible lien électronique (appelé couple électronique). Il en résulte à

nouveau deux électrons qui obéissent à la statistique de Fermi-Dirac.

En 1999, à Genève, les chercheurs ont réussit à développer un supraconducteur qui se connecte et se déconnecte. Selon que le supraconducteur soit actif ou non, le courant circule ou pas. De cette façon, on peut construire des ordinateurs dont les processus de commutation sont nettement plus rapides que ce que la technologie actuelle permet. Mais une toute nouvelle sorte d’ordinateurs serait révolutionnaire, le dénommé ordinateur quantique. Il serait totalement bâti sur la théorie quantique et n’utiliserait que ses propriétés comme instrument. Ceci sera décrit plus complètement dans le prochain chapitre. Résumé Les ordinateurs fonctionnent selon le système binaire puisqu’ils ne peuvent distinguer que deux états (« courant ouvert », « courant fermé »). Les transistors sont des commutateurs électriquement commandés qui sont composé de couches de silicium. Mais une miniaturisation à l’infini n’est pas possible puisque l’effet tunnel rend les isolants inopérants. Certaines architectures de chip comme le transistor à effet tunnel quantique utilisent celui-ci. D’autres nouveaux types d’architectures sont conçus sur la capacité de supraconductivités de matière au sein desquels, à basse température, les électrons ne se comportent pas comme des fermions mais comme des bosons. Ainsi, un transport de courant libre de toute résistance est possible.

Page 98: Traduction : Granat Yvan

98

Chapitre 15 : D’incroyables possibilités, l’ordinateur quantique. Cela semble trop fantastique pour être vrai : un ordinateur qui, pour certaines tâches, calcule des milliers de fois plus vite que les superordinateurs les plus rapides actuels. Hélas, pour le moment, il s’agit plus d’une vision que d’une réalité, mais des premiers succès sur le chemin vers l’ordinateur quantique ont déjà pu être enregistrés. Ici, j’aimerais présenter cette technologie plus en détail, en quelque sorte comme le couronnement de notre odyssée à travers le monde de la relativité et de la théorie quantique. Mais ce chapitre ne constituera qu’un aperçu sommaire. En effet, une analyse approfondie devrait rapidement conduire à l’intervention des fonctions de Schrödinger et des notations de Dirac, ce qui dépasserait clairement cette initiation de vulgarisation scientifique. Qubits et superpositions quantiques Les bases des ordinateurs quantiques sont les principes de la physique quantique tels qu’ils ont déjà été décrit dans ce traité. Je voudrais donc essayer de synthétiser ce que vous connaissez déjà pour que vous en compreniez les fondements. A l’aide de l’expérience des doubles fentes, je vous ai montré, au chapitre 10, le curieux comportement des quantas. Si on utilise une plaque qui est translucide à deux endroits et qu’on fixe une plaque photographique à une certaine distance en arrière, alors, dès que la lumière traverse les deux fentes, apparaît un faisceau d’interférence. C’est compréhensible puisque le dualisme onde-particule affirme que les quantas sont aussi considérés comme des ondes et que ceux-ci ont la capacité d’interférer. Par contre l’émergence du faisceau d’interférence quand on n’émettait qu’un seul quanta était étonnante. Avec quel quanta interfère celui-ci pour provoquer le faisceau ? Au niveau ondulatoire, nous avons déjà éclairci la situation et nous avons dit que le quanta traverse la fente comme une onde et ainsi, un quanta unique peut provoquer une interférence. Mais il y a aussi une explication au niveau du quanta qui est folle, comme il se doit en physique quantique. Le quanta ne porte pas seulement en lui sa propre information, mais aussi l’information de sa « contrepartie » que l’interférence provoque. Les deux états sont mis en mémoire au sein d’un quanta. Une expérience supplémentaire très similaire à l’interféromètre de Michelson-Morley du chapitre 4 confirme cette hypothèse. L’interféromètre dit de Mach-Zender possède la structure suivante : La lumière est émise sur un miroir semi transparent sur lequel le rayon lumineux est divisé. Puis tous deux reposent sur des miroirs placés en arrière à une distance rigoureusement égale. Enfin, ils sont réunis à l’aide d’un nouveau miroir semi transparent. Une interférence à l’intérieur du miroir se produit. Dans une direction, les rayons sont renforcés et ainsi peuvent être mesurés par un détecteur. Mais dans l’autre direction, les rayons correspondants s’effacent. Par conséquent, le détecteur n’indique aucune lumière. Cela devient intéressant, si on envoie seulement un quanta à travers le système : Si on se base sur la nature particulaire de la lumière, celle-ci doit d’opter pour une voie. Pourtant, on arrive au même résultat que lors de l’expérience précédente : un détecteur enregistre le quanta, l’autre non. Maintenant, si on ferme une des deux voies, de la lumière est captée dans les deux détecteurs. Donc, dans ce cas, le quanta a porté en lui l’information particulière de chacun des deux quantas : son information propre et l’information du partenaire que l’interférence a effacé et qui est donc cachée, ce que les deux détecteurs peuvent mesurer.

Page 99: Traduction : Granat Yvan

99

Les équations de Schrödinger décrivent ce phénomène également au niveau ondulatoire. Vous avez appris qu’un système quantique constitue une superposition de nombreux états quantique possibles (une superposition de nombreuses fonctions ondulatoires) et que ce n’est qu’au moment de l’observation que l’on force le système de prendre une décision, par exemple, si Schrödinger peut oui ou non encore conserver son chat. On appelle superposition quantique la propriété qu’un système quantique puisse porter en lui plus qu’une information. Alors que dans l’informatique « conventionnelle », un état est clair, en effet, soit 0 soit 1, dans l’informatique quantique, nous avons affaire à une superposition de plusieurs états. Cela n’est en rien comparable avec la théorie informatique actuelle. Jusqu’à présent, en informatique, on parlait de bits. Un bit est une cellule de stockage particulière auquel on peut attribuer clairement un état, à savoir 0 ou 1. Cela équivaut à parler de « courant in », «courant out », « connecté », « déconnecté », « magnétisé », « non magnétisé » etc. L’état est toujours clairement défini. En informatique quantique, on remplace ces bits par des qubits. Un qubit est une particule qui obéit aux lois de la physique quantique et représente simultanément 0 et 1 ! Si on couple deux qubits, alors, leur superposition quantique représente tous les quatre états possibles (00, 01, 10, 11), si on en couple trois, tous les huit, avec quatre, tous les seize etc. Ce simple calcul s’exprime par la simple formule 2N, où N est le nombre de qubits couplés. Il existe différentes façons de réaliser des qubits. J’aimerais présenter ici les deux méthodes les plus connues : la NMR et les pièges à ion.

Page 100: Traduction : Granat Yvan

100

Résonance magnétique nucléaire (NMR). Avec la résonance magnétique nucléaire (en abrégé NMR), on utilise la notion de spin de particules qui a déjà. Un liquide dont toutes les particules présentent un spin ½ sert de base pour cette méthode. Si une telle particule est soumise à un champ magnétique, elle s’aligne conformément à son spin. Donc, le spin indique à la particule dans quelle direction elle doit se diriger. Mais si la particule doit prendre une position complètement opposée, elle a besoin pour cela d’un plus haut niveau d’énergie. Dans la méthode NMR, un champ magnétique est appliqué à du liquide de sorte que toutes les particules sont déviées dans la même direction. Cet état fondamental peut être assimilé au chiffre binaire 0. A l’aide d’un rayonnement radio ciblé (rayonnement de basse fréquence), on peut amener une telle particule à modifier sa direction, ce qui correspond au 1. Un rayonnement supplémentaire ferait retourner la particule à l’état 0. En informatique, on décrit cela comme la valeur logique NOT, puisque l’état est totalement inversé (NOT 1 =0, NOT 0 =1). Mais on ne doit pas faire tourner la particule à 180°, (par exemple, celle-ci peut être un noyau d’hydrogène, donc un proton). Si on n’utilise que la moitié de l’énergie, on ne le tourne que de 90°. Et ici, la physique quantique se manifeste à nouveau : si on mesure l’état de la particule, il y a 50 % de chance d’observer un 1 et aussi 50 % de chance de constater un 0. La particule obéit aux règles de la physique quantique et se retrouve dans une superposition entre deux valeurs. Mais, le système de physique quantique ne va pas consister en un, mais en de nombreux qubits. Pour cela, ils doivent interagir les uns avec les autres. Dans ce cas, la physique respecte un phénomène que l’on appelle couplage spin-spin. A l’intérieur d’une molécule, le changement d’un spin atomique produit un changement de spin d’un autre atome de la molécule. Ainsi, différents qubits peuvent être couplés l’un l’autre à l’intérieur d’une molécule. Pièges à ions Comme son nom l’indique, les ions servent de fondement pour cette méthode. Par l’emploi d’un champ électrique, ceux-ci sont maintenus sous vide. A l’aide d’un laser, il est possible de déplacer les ions dans un état de repos (on appelle cela le refroidissement laser). Un laser n’est rien de plus qu’un rayon de quantas lumineux qui ont tous la même énergie. Ainsi, la fréquence de la lumière est clairement déterminée et ne présente pas une superposition de nombreuses longueurs d’onde comme il en est dans notre monde quotidien. Une autre particularité de lumière de laser, ce qui est cohérent, est que les hauts et les creux des ondes lumineuses individuelles se superposent exactement les unes les autres et ne peuvent donc pas s’annuler. Les ions ne peuvent absorber l’énergie quantique du laser que si celle-ci émet à la bonne fréquence. Si l’ion se trouve au repos, le laser n’exerce aucun effet puisque le quanta d’énergie ne correspond pas à l’énergie dont l’ion a besoin. Mais s’il se trouve en mouvement, il s’éloigne du laser et en émigre. En vertu de l’effet Doppler, comme cela a déjà été décrit plus haut, la fréquence de la lumière augmente quand l’ion se déplace sur la source lumineuse. De cette façon, le quanta peut obtenir l’énergie nécessaire et exercer un effet sur l’ion. Celui-ci effectue un recul et commence à lentement entamer le mouvement jusqu’à ce qu’enfin, il arrive complètement au repos.

Page 101: Traduction : Granat Yvan

101

A l’aide de lumière laser, l’ion au repos peut maintenant être stimulé à souhait. Comme celui-ci obéit aussi aux lois de la physique quantique, il se trouve dans une superposition quantique entre état excité et non excité. Une interaction quantique avec d’autres ions est aussi possible : en effet, un ion est excité et est ainsi mis en mouvement, les autres ions, placés en situation identique, en font de même. On obtient ainsi une superposition de différents états quantiques. Calculer avec les superpositions quantiques. A juste titre, vous vous posez ici une question : Comment peut-on effectuer des calculs avec de quelconques fonctions ondulatoires superposées ? Maintenant, il faut y répondre. Sur le plan mathématique, il s’agit d’opérations quantiques sur des calculs vectoriels complexes que je ne souhaite pas décrire ici de manière approfondie. Mais pour vous en donner un exposé mathématique, le principe sera ici montré de manière très succincte. Si vous n’aimez pas les mathématiques, vous pouvez rapidement survoler ce qui suit. Mais je vous recommande d’au moins jeter un bref regard sur l’exposé mathématique. Même si vous ne devriez pas tout comprendre, les idées vous viendront, malgré tout, plus clairement à l’esprit. L’espace dit de Hilbert constitue les fondements du modèle mathématique. Il s’agit d’un système de coordonnées qui est proche du système cartésien (donc l’habituel avec des axes horizontaux, verticaux et diagonaux, ces derniers représentent toujours la profondeur). Cependant, l’espace de Hilbert peut contenir plus de dimensions. L’état d’un système de physique quantique se fait représenter par un vecteur qui est composé de trois vecteurs supplémentaires. Ceux-ci pourraient bien être les axes x, y et z d’un système de coordonnées cartésiens. En fonction de la valeur de chaque composante des trois vecteurs, le vecteur résultant s’aligne différemment dans l’espace. Le vecteur résultat (appelé vecteur-ket ψ) est représenté par des symboles. Si nous avons un qubit à notre disposition, deux états se superposent : d’abord l’état que nous désignons par 0, puis un état que nous définissons comme 1. Tous deux sont des propriétés de systèmes de physique quantique et doivent être pris en considération pour l’ensemble du système. Ces deux états se font représenter comme des vecteurs-ket. On peut symboliser par ω0, la probabilité que le système aboutisse à une mesure 0 et avec ω1, la probabilité que ce soit 1. Il faut remarquer, qu’ici, il ne s’agit pas directement de probabilités, car les deux valeurs sont des nombres complexes. Dans la notation dite Dirac, on rassemble la probabilité cp, l’état d’un système Φ et le vecteur-ket : ⟨ | ⟩. Cela ne veut rien dire de plus que le système a une probabilité CP

avec un vecteur-ket de se trouver dans l’état Φ. Dans notre exemple, l’ensemble du système de physique quantique résulte de la combinaison deux systèmes.

| ⟨ | ⟩ ⟨ | ⟩ ( )

Ce Qubit représente deux valeurs que l’on peut noter en tant que vecteurs (membre droit de l’équation). Par l’addition de qubits supplémentaires, des valeurs supplémentaires peuvent être représentées. Mathématiquement, cela se réalise par une multiplication des vecteurs qubits respectifs :

Page 102: Traduction : Granat Yvan

102

(

) (

)

(

)

(

)

Vous voyez qu’il en résulte un vecteur qui peut présenter quatre états. On pourrait continuer ainsi avec 3, 4, 5 vecteurs etc. on obtiendrait toujours 2N valeurs possibles. A présent, nous avons bien implanté des états quantiques à l’intérieur des ordinateurs (au moins mathématiquement). Par contre, nous n’avons pas encore effectué la moindre opération de calcul. Pour cela, en mathématique, on se sert des matrices (M) que l’on

adjoint aux vecteurs : (

). On applique cette matrice à un vecteur quantique. Cela

fonctionne ainsi :

Ceci peut être démontré par un exemple très simple. Si on veut programmer la porte logique NOT, on doit trouver une matrice qui change le vecteur de telle façon qu’à la fin on ait un si un tait la valeur d’entr e et inversement Si notre système de physique quantique se trouve visiblement dans l’ tat la probabilit de mesurer un est de % (=1) et la probabilité de mesurer un 1 est de 0% (=0) :

On adjoint la matrice suivante à ce vecteur : (

) et cela donne :

Vous voyez que le vecteur a intégralement changé de valeur ! Naturellement, cela fonctionne

aussi dans l’autre sens :

Il est clair que par application de la matrice, toutes les valeurs du vecteur sont impliquées. Toutes les valeurs sont modifiées en parallèle (ici le 0 vers le 1 et le 1 vers 0). Cela est aussi le grand secret du calcul quantique : une opération sur un état quantique modifie en parallèle tous les tats individuels qui l’accompagnent donc, en théorie, des millions de calculs simultanés sont possibles.

Page 103: Traduction : Granat Yvan

103

Maintenant, vous avez une idée de la manière dont les opérations mathématiques se d roulent à l’int rieur d’un ordinateur quantique Le secret ce sont les matrices que l’on adjoint aux vecteurs. Mais la question est : comment ceci se réalise t’il au niveau du hardware ? Jusqu’à pr sent vous n’avez crit que le software Mais sans hardware, le meilleur software ne sert à rien. Nous avons déjà une partie du hardware : une sorte de support de stockage sur lequel nous pourrions implanter des superpositions quantiques (par exemple les pièges à ions ou le NMR). Mais comment implanter les opérations de calcul ? Si nous nous souvenons de l’inf romètre du d but nous pouvons constater que le résultat est l’extinction d’un rayon lumineux et l’augmentation du temps de parcours de l’autre Si nous modifions le temps de parcours d’un rayon lumineux, cela a un effet sur l’autre quelques temps plus tard Les crêtes et les creux auraient une autre superposition et produirait peut-être exactement le résultat inverse (par exemple, une feuille de verre connait un tel effet de décélération). Ceci est utilis dans l’ordinateur quantique : on essaye de simuler la matrice avec différents moyens. Vous avez déjà fait connaissance avec la possibilit d’une fonction-NOT : ainsi, par la méthode NMR ou par le piège à ions dans lequel un ion peut être excité ou freiné, la direction d’une particule peut effectuer un virage de 180 degrés EPR et décohérence. Un grand problème au sein de la physique quantique consiste à conserver les superpositions quantiques adéquates. En effet, de très faibles interactions avec l’environnement d truit celui-ci et elles sont, hélas, quotidiennes au niveau quantique. On appelle décohérence le processus de lente destruction de la superposition quantique. Parfois, cela ne dure que quelques millisecondes L’objectif est d’ lever la dur e de vie des états quantiques. Entretemps, des théories sont développées pour permettre une correction d’erreur Mais il existe une méthode pour protéger les données qui paraît vraiment fantastique, comme si elle avait t charg e par Scotty en personne sur l’ordinateur du vaisseau Enterprise : les quantas intriqués. Une fois encore, on doit se servir du principe d’incertitude d’Heisenberg pour comprendre de quoi il s’agit. En 1935, trois physiciens ont réalisé une expérience de pensée qui est désormais connue sous le nom d’EPR : Albert Einstein, Boris Podolsky, Nathan Rosen. Ils ont imaginé prendre deux quantas et les faire interagir l’un avec l’autre à une distance minuscule Dans cette situation, la distance entre les deux quantas est déterminée avec précision. De même, la quantité d’impulsion de l’ensemble du système peut être d termin e L’interaction se produit et les deux quantas se s parent à nouveau sans entrer en contact avec d’autres particules durant leur voyage. A un instant choisi arbitrairement on mesure l’impulsion d’une particule avec une parfaite exactitude Puisque la quantit de mouvement de l’ensemble du système demeure identique, on doit seulement déduire cette mesure du total de la quantité de mouvement précédemment mesurée pour obtenir ainsi la quantité de mouvement de l’autre quanta Mesurons l’emplacement du premier quark en conséquence de quoi, en vertu d’Heisenberg nous détruisons naturellement la mesure de son impulsion Mais cela n’est pas un problème puisque, par le résultat de la mesure, nous pouvons dériver à quel emplacement, le deuxième quanta peut avoir occupé durant l’intervalle Dès lors nous avons d termin simultan ment l’impulsion et

Page 104: Traduction : Granat Yvan

104

l’emplacement des deux quantas et ainsi nous avons d moli le principe d’incertitude d’Heisenberg Une des lois de nature les plus fondamentales n’a plus de valeur ! Mais pas de panique ! Cela ne fonctionne pas comme Einstein, Podolsky et Rosen se sont imaginés. En effet les deux quantas se maintiennent l’un l’autre dans une relation à long terme Si nous d truisons l’impulsion d’un quanta l’impulsion de l’autre quanta sera instantanément détruite (sans délai). Mais Einstein et beaucoup d’autres physiciens ont un problème avec la simultanéité : En th orie l’information concernant la modification de la quantité de mouvement devrait traverser l’espace à une vitesse infinie et influencer l’autre quanta. Mais des vitesses infinies contredisent les lois de la relativité ! Si on jette un coup d’œil aux forums internet on voit quelle pouvantable confusion d’idées, de points de vue, d’estimations et de connaissance scientifique règne au sujet de l’exp rience de pens e EPR C’est pourquoi je ne souhaite pas m’engager ici plus profondément à ce sujet. Tenons-nous au fait que la transmission instantanée de données fonctionne effectivement. Dans ce domaine, John Bell a mené une des exp riences les plus importantes et a prouv avec son in quation de Bell l’exactitude de la transmission instantanée.

Dans un ordinateur quantique, on pourrait s’imaginer l’ tat de vibration d’un quanta instantanément transmis à un autre quanta. Avec cette relation (on parle de quantas intriqués), on conserver l’information à long terme Sur le vaisseau spatial Entreprise, le principe de Beamen fonctionne de manière similaire. Chaque structure moléculaire peut être considérée comme la vibration d’une onde de matière, comme un grand système quantique A l’aide des quantas intriqu s on pourrait transmettre l’information vibratoire et la polarisation à un deuxième quanta. Cela a déjà fonctionné avec quelques quantas de lumière. Des expériences avec des atomes d’hydrogène sont en projet

Page 105: Traduction : Granat Yvan

105

Beaucoup de problèmes non résolus. Non seulement, beaucoup de ce qui est décrit ici parait compliqué, mais il l’est en r alit Même si quelques optimistes ont devant les yeux l’objectif devant les yeux pour l’instant il ne faut pas compter sur un ordinateur quantique véritablement en état de fonctionner. Mais la question de savoir si nous pouvons vraiment travailler sur un ordinateur quantique en demeure en suspens Jusqu’à pr sent il n’a t développé que deux algorithmes susceptibles de fonctionner sur un tel ordinateur D’une part il s’agit de l’algorithme de Peter Shors bas sur le principe de factorisation et d’autre part de l’algorithme de Lov Grovers bas sur la recherche de donn es dans une base de données non triée. Mais un des plus grands problèmes demeure la décohérence malgré les approches prometteuses que je vous ai exposées plus haut. Mais si l’ordinateur quantique devient une réalité, tous les procédés de cryptographies actuels seraient invalid s puisqu’ils sont presque tous bâtis sur le principe de factorisation des nombres premiers (par exemple, le procédé RSA). Un ordinateur peut certes proc der rapidement à d’importants calculs par la multiplication de nombres premiers (donc des nombres qui ne sont divisibles que par 1 et par eux-mêmes), mais il ne peut décomposer ceux-ci en nombre premier en un temps raisonnable. Mais, pour un ordinateur quantique ceci ne serait qu’un jeu d’enfant Donc, Pour cela l’informatique quantique met un dispositif adéquat à disposition : la cryptographie quantique. Celle-ci qui est particulièrement appropriée pour la transmission de données. Avant que l’on transmette une information par un câble optique elle est polaris e par l’ metteur dans une direction d termin e Le récepteur mesure la polarisation et renvoie la valeur mesurée à l’ metteur Ceci permet de v rifier la cohérence de la polarisation. Si un espion veut écouter le flux de donnée, il doit observer les quantas de la transmission. Mais ainsi, il détruit la polarisation ce que l’exp diteur peut constater Si un quanta arrive mal polarisé, la ligne est coupée et l’espion n’a aucune chance de tirer du système une information utilisable du système. De telles transmissions sont d jà conduites sur des distances d’environ kilomètres

Page 106: Traduction : Granat Yvan

106

Résumé. Dans un ordinateur quantique, les bits sont remplacés par des qubits qui sont constitués par une superposition de plusieurs états quantiques (superpositions quantiques). Il existe deux possibilités de provoquer de telles superpositions. La résonance magnétique nucléaire (NMR) utilise les propriétés de spin des particules et le piège à ion dans lequel des ions excit s et non excit s s’accumulent Math matiquement l’ordinateur quantique est basé sur le vecteur de calcul dont la forme mathématique doit être implantée sur le matériel avec toute une s rie d’astuces Pour éviter la décohérence (effondrement de la superposition) on cherche à transmettre l’ tat quantique à d’autres systèmes quantiques à l’aide des quantas intriqu s Le paradoxe EPR en constitue l’id e de base La cryptographie quantique permet une transmission de données sécurisée entre exp diteur et r cepteur par l’alignement de la superposition