Devoir de Philosophie

HISTOIRE DE LA PHYSIQUE CLASSIQUE

Extrait du document

histoire

La naissance de la mécanique statistique

 

Cette méthode devint extraordinairement efficace quand elle fut utilisée par le savant autrichien Ludwig Boltzmann (1844-1906), sans doute le plus grand physicien théoricien du siècle dernier. Le problème que Boltzmann décida de traiter était ardu : est-il possible de trouver une description mécanico-atomiste d’un système physique macroscopique qui permette d’expliquer la deuxième loi de la thermodynamique, c'est-à-dire la tendance irréversible du système à atteindre une situation d’équilibre qui exclut toute autre possibilité d’évolution ?

La méthode de Boltzmann fut essentiellement statistique, étant donné l’impossibilité de décrire l’évolution du système molécule par molécule. Naturellement, sa théorie se rapportait à un gaz parfait. La description de l’état macroscopique du gaz était celle que la thermodynamique offrait en termes de température, de pression et des grandeurs qu’on pouvait calculer à partir de celles-ci, c'est-à-dire l’énergie et l’entropie. Selon son hypothèse, à chaque état macroscopique correspondait une fonction particulière de distribution des vitesses des molécules (c'est-à-dire un tableau indiquant la vitesse de chaque groupe de molécules, à la condition que l’énergie totale du système soit connue).

Or, il fallait tout d’abord trouver la façon dont une fonction de distribution variait dans le temps par suite du choc des molécules entre elles et avec les parois du récipient. En pratique, Boltzmann découvrit que le mécanisme des chocs, à lui seul, était tel qu’une fonction de distribution initiale quelconque tendait à rejoindre la fonction de distribution qui avait été trouvée par Maxwell et qui était typique de la situation d’équilibre. Le gaz présentait le comportement unidirectionnel prévu par la deuxième loi de la thermodynamique. De plus, on pouvait calculer une grandeur, qui dépendait de la fonction de distribution, et qui ne pouvait qu’augmenter dans le temps, atteignant sa valeur maximale quand le système était en équilibre. Cette grandeur présentait, par conséquent, le comportement que l’entropie devait avoir.

Toutefois, Boltzmann se rendit tout de suite compte que l’étude de l’évolution d’une fonction de distribution, à laquelle correspondait un nombre très grand d’états microscopiques (c'est-à-dire les états définis exactement par les positions et par les vitesses de chaque molécule) était une chose, alors que suivre l’évolution d’un état microscopique individuel en était une autre. En même temps, les hypothèses sur les modalités de collision entre les molécules n’étaient pas purement mécaniques, mais elles posaient un certain nombre de problèmes liés au caractère fortuit du mouvement des molécules qui était tout à fait contraire à la vision déterministe classique.

C’est à ces difficultés que s’attachèrent ses opposants, surtout les physiciens qui réfutaient l’hypothèse atomique. La réponse de Boltzmann marqua un tournant dans la façon d’affronter ces problèmes et d’interpréter le sens de la deuxième loi de la thermodynamique. Pour Boltzmann, le problème ne consistait pas tant à suivre l’évolution de l’état microscopique dans son individualité qu’à réussir à calculer combien d’états microscopiques correspondaient au même état macroscopique. Si l’on pouvait démontrer que, parmi tous les états microscopiques où le système pouvait se trouver instant par instant, ceux qui correspondaient à l’état macroscopique d’équilibre (appelons les « de type A ») étaient beaucoup plus nombreux que les autres (appelons les « de type B »), le problème était résolu. En effet, le système aurait occupé, très probablement, l’un des états de type A et, de toute façon, partant d’un état de type B, il serait très probablement parvenu à un état de type A. La proposition de Boltzmann fut précisément de considérer l’entropie comme une mesure des probabilités de l’état macroscopique et, par conséquent, d’interpréter la deuxième loi de la thermodynamique comme la tendance d’un système à passer spontanément d’états de probabilités inférieures à des états de probabilité supérieure.

Il était évident que tout le discours de Boltzmann se fondait sur l’hypothèse atomique, et pour cette raison il fut très discuté. En particulier, certains physiciens estimaient insatisfaisant le fait que l’augmentation d’entropie était une tendance seulement probable (même si la probabilité était grande) et non pas certaine. Selon Boltzmann, des fluctuations fortuites pouvaient se produire, impliquant la diminution de l’entropie, bien que localement et pour une durée limitée. Et rien n’excluait que « notre » Univers, qui apparaît assez ordonné pour permettre la vie, ne fut que l’effet d’une fluctuation fortuite à partir d’un état originaire chaotique et désordonné.

 

 

LA THÉORIE DES ÉLECTRONS ET LE PROBLÈME DU MOUVEMENT DE L’ÉTHER

 

L’un des problèmes que ni Maxwell ni Hertz n’avaient réussi à résoudre était celui de la nature de la charge et du courant électriques. Les recherches électromagnétiques se fondaient sur les effets de ces grandeurs, en général des effets mécaniques, et la théorie du champ électromagnétique semblait pouvoir lier ces effets à quelque chose qui avait lieu dans l’éther et non pas à l’intérieur des corps chargés ou des conducteurs. D’ailleurs, les recherches électrochimiques avaient mis en évidence le fait que les phénomènes étaient interprétables aussi (mais pas seulement) par l’hypothèse que l’électricité avait une structure atomique, c'est-à-dire que la charge électrique d’un corps était toujours un multiple d’une unité « naturelle ».

C’est le physicien théorique Hendrik Antoon Lorentz (1853-1928) qui suggéra une hypothèse nouvelle. Frappé par la théorie électromagnétique de la lumière, il commença à étudier les phénomènes de propagation de la lumière au sein des différents matériaux dits « transparents » dans le cadre de cette théorie. De cette façon, il parvint à une interprétation simple des différentes relations expérimentales, supposant que dans les corps dits « transparents », c'est-à-dire dans les matières diélectriques, il y avait des charges microscopiques oscillant autour de positions d’équilibre ; il s’agissait de charges qui étaient, en fait, libres de se déplacer dans les conducteurs. Ces charges devaient être considérées comme les sources du champ électromagnétique. Elles « excitaient » l’éther qui, à son tour, agissait sur elles, n’interagissant qu’indirectement avec les corps matériels. Pour expliquer le magnétisme, on pouvait revenir, en effet, à l’ancienne hypothèse d’Ampère, selon laquelle il était engendré par le mouvement des charges électriques. De plus, le phénomène des raies spectrales (c'est-à-dire le fait que les gaz émettaient de la lumière par une série de fréquences bien définies) pouvait être expliqué en supposant que les radiations des différentes fréquences étaient le produit des oscillations des petites charges qui se trouvaient à l’intérieur de leurs atomes.

 

 

En faveur de ce qui fut appelé par la suite la théorie des électrons, il existait également la preuve expérimentale, dérivant de l'étude des phénomènes optiques, de la production d’un mouvement relatif entre la source de la lumière et le milieu dans lequel la lumière se propageait. L'un des problèmes était de savoir si un corps en mouvement entraînait ou non l'éther qui y était contenu. La réponse à cette question avait déjà été fournie par Augustin Fresnel au début du siècle. S'il y a entraînement, il ne peut être que partiel. Lorentz reprit la question et démontra qu’avec son hypothèse, le problème était brillamment résolu. En réalité, les corps en mouvement à travers l'éther n'interagissaient absolument pas avec lui. La matière ordinaire était complètement perméable à l'éther. Cela signifiait deux choses : a) que l'éther restait dans tous les cas parfaitement immobile et que par conséquent la vitesse de la lumière était tout à fait indépendante du mouvement de la source, b) qu'entre la matière ordinaire et l'éther, il ne se produisait aucune forme d'interaction mécanique (l'éther n'opposait aucune résistance au mouvement de la matière), avec la conséquence que probablement l'éther était une substance de nature non mécanique.

Ces idées, purement théoriques, furent exposées systématiquement en 1892. Quelques années plus tard, elles connurent une confirmation expérimentale extraordinaire.

 

 

LES NOUVELLES FORMES DE RADIATION

 

Les rayons cathodiques

 

La confirmation de la théorie de Lorentz dériva d'un débat animé qui eut lieu dans les dix dernières années du XIXe siècle et auquel participèrent des physiciens théoriciens et expérimentaux qui s'étaient occupés d'un phénomène collatéral à ceux dont nous avons parlé : la décharge dans les gaz.

L'utilisation systématique des pompes à vide avait permis d'étudier la nature de la décharge qui se produisait dans un gaz une fois qu'une différence de potentiel suffisante était produite entre la cathode (l'électrode négative) et l'anode (l'électrode positive). Les phénomènes observés apparaissaient étranges et pittoresques. On voyait des bandes lumineuses alterner avec des espaces sombres, et ces configurations variaient selon la pression du gaz. Mais un phénomène particulièrement étrange se produisait lorsque la pression du gaz devenait très basse. La décharge dans les gaz cessait d'être lumineuse, mais une faible luminosité verdâtre (comme celle des objets phosphorescents) se produisait - à l'intérieur du tube - dans la partie opposée à la cathode. L'étude de ce phénomène mena, dès les années 1870-1880, à considérer que les cathodes émettaient une nouvelle forme de radiation qui, quand elle entrait en contact avec le verre du tube à décharge, produisait des effets de fluorescence. On avait découvert les rayons cathodiques (ceux que nous utilisons aujourd'hui dans les télévisions).

Cela soulevait une question délicate : de quelle nature étaient ces rayons ?

C'est ainsi que naquit une longue controverse entre les physiciens anglais et les physiciens allemands. L'Anglais William Crookes (1832-1919) commença une série systématique d'observations sur la base desquelles on pouvait supposer que les rayons cathodiques avaient une nature corpusculaire et étaient composés d'une matière très « fine », voire plus fine que celle des gaz mêmes. L'Allemand Philipp Lenard (1862-1947), influencé par Hertz qui ne croyait pas à la nature corpusculaire de l'électricité, soutenait au contraire qu'il s'agissait d'une nouvelle forme de radiation, différente de la radiation lumineuse, qui se propageait dans l'éther. Sans le vouloir, Lenard favorisa une autre découverte importante. En voulant démontrer que les rayons cathodiques pouvaient franchir de fines plaques métalliques (et qu'ils ne pouvaient donc pas être « matériels »), il s'aperçut qu'effectivement une plaque métallique sur laquelle on projette des rayons cathodiques émet une étrange forme de radiation, qu'il pensa être constituée de rayons cathodiques « secondaires ». C'est toutefois son collègue Wilhelm Konrad Röntgen (1845-1923) qui démontra que cette radiation était de type particulier, et qu'elle avait des propriétés différentes des rayons cathodiques, dont l'une d’elles était extrêmement fascinante : ces rayons étaient en mesure de traverser de très importantes épaisseurs de matière. Röntgen avait découvert les rayons X.

C'est l'Anglais Joseph John Thomson (1856-1940) qui résolut la question. Il démontra que les rayons cathodiques transportaient une charge électrique négative et qu'ils étaient déviés par des champs électriques et/ou magnétiques. Il ne s'agissait pas de radiation éthérée, mais de véritables particules chargées. Et Thomson parvint, en 1896, à mesurer le rapport entre la charge électrique et la masse de ces corpuscules, qui montrait que ces derniers étaient environ deux mille fois moins lourds qu'un atome d'hydrogène. Thomson conclut qu'il avait trouvé l'état le plus élémentaire de la matière, les particules les plus petites qui puissent la composer. Les électrons de Lorentz avaient été révélés de façon expérimentale.

 

 

La découverte de la radioactivité

 

Mais les découvertes concernant le monde microscopique ne s’achevaient pas là. Quelques mois après la découverte de Röntgen, Henri Becquerel (1852-1908) observa les radiations émises par des composés de l'uranium. Marie Curie (1867-1934) et son mari Pierre Curie (1859-1906) découvrirent peu après d'autres éléments qui émettaient des formes de radiation semblables, le polonium et le radium (d'où le nom de « radioactivité »). Les recherches se poursuivirent intensément dans les laboratoires européens. Ce fut Ernest Rutherford (1871-1937) qui démontra en 1899 que la radiation de Becquerel était en réalité composite. Elle se composait de rayons , qui étaient facilement absorbés même par les petites épaisseurs de matière, et de rayons , qui étaient beaucoup plus pénétrants. Peu après, on découvrit également le troisième constituant, les rayons , qui apparaissaient extrêmement pénétrants.

Ce n'est que dans les premières années du XXe siècle qu'il devint clair que :

- les rayons étaient des particules relativement lourdes (leur masse était environ quatre fois plus importante que celle de l'atome d'hydrogène) et qu'ils avaient une charge positive égale au double de la charge « élémentaire » de l'atome d'hydrogène ionisé (la même charge qu'un électron, mais de signe opposé) ;

- les rayons étaient de la même nature que les rayons cathodiques, c'est-à-dire qu'ils étaient constitués d'électrons ;

- les rayons étaient en revanche des radiations neutres extraordinairement pénétrantes, dont la nature, comme au demeurant celle des rayons X, était encore peu connue, même si dans les deux cas l'hypothèse la plus communément admise était qu'il s'agissait de formes de propagation dans l'éther, analogues à la propagation lumineuse et ultraviolette. Ce n'est que plus tard, après 1910, que l'on constata que ces radiations avaient une nature ondulatoire, et qu'elles pouvaient être considérées comme des radiations électromagnétiques de longueur d'onde extrêmement faible.

La découverte continue de nouvelles formes de radiation et les reconnaissances qu'elles comportaient déclenchèrent une course à la publication annonçant, par les expérimentateurs de bonne et de mauvaise foi, l'identification de formes de radiation extraordinaires. C'est ainsi que fut annoncée la découverte des rayons N, de la lumière noire, et ainsi de suite. Le savant expérimental fin de siècle espérait atteindre la célébrité en identifiant une nouvelle forme de radiation. Ainsi, des expérimentateurs plus habiles durent parfois contrôler eux-mêmes les données annoncées de façon retentissante par leurs collègues et en dévoiler les erreurs ou, pire encore, les « trucs ».

 

 

LES PREMIERS MODÈLES ATOMIQUES ET LA DÉCOUVERTE DU NOYAU

 

La découverte de l'électron conduisit presque immédiatement à penser que les atomes matériels étaient des structures complexes, d'autant plus que, l'électron étant de charge négative, il devait y avoir dans l'atome une contrepartie positive, de façon à rendre l'atome neutre. D'autre part, il était très difficile de construire un modèle d'un système de charges positives et négatives suffisamment stable, c'est-à-dire n'explosant pas ou ne s'écroulant pas spontanément, et expliquant les phénomènes connus d'origine atomique. Pendant toute la première décennie du XXe siècle s'affrontèrent essentiellement deux modèles. Le premier assimilait l'atome à un système planétaire, avec une charge positive centrale concentrée et les électrons orbitant autour d'elle. Le deuxième imaginait que les électrons tournaient le long d'anneaux concentriques à l'intérieur d'une sphère diffuse de charge positive.

Ce deuxième modèle fut soutenu avec de nombreux arguments par Joseph John Thomson. Mais c'est Rutherford qui démontra que le premier était le meilleur. Dans le cadre d'une série d'expériences, commencées dès les premières années du XXe siècle, et destinées principalement à déterminer clairement la nature des radiations , et , Rutherford commença à recueillir des arguments en faveur de l'hypothèse planétaire. Les expériences décisives furent effectuées entre 1908 et 1911 dans son laboratoire. Rutherford et ses collaborateurs, en effet, parvinrent à observer que les particules , si on les faisait entrer en collision à une vitesse élevée avec des plaques métalliques fines, subissaient de grandes déviations et étaient parfois réfléchies en arrière. La seule façon d'expliquer le phénomène, était de penser qu'elles étaient « repoussées » par des charges positives très concentrées, qui ne pouvaient être les sphères diffuses de Thomson. Autrement dit, l'atome devait avoir un noyau positif très petit par rapport à ses dimensions globales.

 

 

LA CONFIRMATION DE L'EXISTENCE DES ATOMES : LES EXPÉRIENCES SUR LE MOUVEMENT BROWNIEN

 

Toutes les découvertes dont nous avons parlé devaient décider du destin de la physique de notre siècle. Le domaine principal de recherche allait devenir la structure élémentaire de la matière et les lois qui régissent le comportement des particules élémentaires. Mais les dernières résistances des physiciens qui ne voulaient pas croire à l'existence des atomes, parce qu'ils cultivaient l'idéal d'une physique « phénoménologique », c'est-à-dire se limitant à la description de ce qui était observé directement sans spéculations hypothétiques, ou parce qu'ils préféraient penser que la matière était continue, furent balayées par le développement d’un autre secteur d'étude.

C'est en effet le physicien français Jean-Baptiste Perrin (1870-1942) qui concentra son attention sur un phénomène observé dès 1827 par le botaniste Robert Brown (1773-1858) qui avait remarqué que de minuscules grains de pollen, observables uniquement au microscope, suspendus dans un liquide, effectuaient une étrange « danse », indépendamment du fait qu'ils étaient vivants ou morts. Perrin eut l'intuition que ce mouvement, appelé précisément « mouvement brownien » avait une importance décisive pour établir la théorie cinétique de la chaleur, c'est-à-dire pour mettre en évidence le fait que les molécules de la matière sont animées par un mouvement d'agitation continu, qui ne s'arrête qu'au zéro absolu.

Par une série extrêmement brillante d'expériences et grâce à l'utilisation de puissants microscopes, il démontra, de manière indiscutable, que le mouvement des grains de pollen, et aussi d'autres particules suspendues dans un liquide, étaient précisément du type de celui auquel on devait s'attendre si l'on supposait qu'ils étaient l'effet des chocs des molécules du liquide, alors que les fluctuations prévues par Boltzmann faisaient que plusieurs molécules, au lieu de se mouvoir de façon chaotique, se mouvaient simultanément dans la même direction. L'atome devenait ainsi une certitude de la physique.

 

 

LA NAISSANCE DE L'ASTROPHYSIQUE

 

Nous avons parlé des succès de l'astronomie de position, c'est-à-dire de l'astronomie qui ne s'intéresse pas à la nature physique et à l'évolution des objets localisés dans le ciel. L'extraordinaire développement des moyens d'observations devait bientôt changer la situation. C'est William Parsons, troisième comte de Rosse (1800-1867), qui réalisa un puissant télescope à réflexion et qui découvrit, vers le milieu du siècle, que certaines nébuleuses avaient une structure en spirale.

À ce stade, le problème de la nature des nébuleuses fut à nouveau d’une grande actualité. Certaines, en effet, avaient une configuration stable, d'autres étaient sujettes à des mutations sensibles. Étaient-ce donc de gigantesques systèmes d'étoiles - de véritables « îles d’Univers » - comme la Voie Lactée ? Ou bien étaient-ce des nuages constitués de gaz, capables d'émettre de la lumière, et qui se trouvaient « à l'intérieur » de la Voie Lactée ? Le problème ne devait être résolu qu'au début de notre siècle.

L'affinement des techniques d'observations des spectres émis par les corps incandescents et les techniques photographiques concentrèrent par ailleurs l’attention sur le Soleil puis sur les autres étoiles. Joseph von Fraunhofer (1787-1826) avait déjà montré que le Soleil et les autres étoiles présentent dans leur spectre certaines raies sombres. Quand l'analyse spectrale devint d'utilisation commune en physique et en chimie, il fut clair que non seulement ces raies correspondaient à des fréquences de la radiation émise par le Soleil qui étaient absorbées par l'atmosphère solaire elle-même, mais il fut possible aussi d'identifier les éléments chimiques présents dans cette atmosphère (chromosphère).

C'est ainsi que commençait l'étude de la nature physique et de la composition chimique du Soleil et des étoiles. En se basant sur la couleur la plus intense dans leur émission spectrale, Angelo Secchi (1818-1878) proposa en 1866 une distinction des étoiles en trois classes : « blanches », « jaunes » et « rouges ». À la même époque, des clichés photographiques systématiques montrèrent une périodicité dans la formation de taches solaires à laquelle correspondait une périodicité identique dans des phénomènes de magnétisme terrestre. On commença à observer aussi les protubérances caractéristiques qui se formaient à la surface du Soleil, tandis qu'en 1868 fut découvert dans le Soleil un élément chimique inconnu, auquel on donna naturellement le nom d’« hélium » et qu’on ne devait détecter sur la Terre qu’en 1895.

Entre-temps, certains physiciens commencèrent à se demander combien de temps le Soleil pourrait continuer à irradier d’aussi grandes quantités d’énergie. La deuxième loi de la thermodynamique semblait imposer une limite à cette production d’énergie, et sur cette base, Thomson commença à établir les premières estimations concernant l’âge du Soleil. Il est intéressant de rappeler qu’en se servant de ces estimations (au demeurant profondément erronées, étant donné qu’il ne pouvait pas savoir quelle était la véritable source de l’énergie solaire), Thomson crut trouver une objection radicale à la théorie de l’évolution des espèces de Darwin car, selon lui, le Soleil n’aurait pas pu « fonctionner » plus de quelques centaines de milliers d’années.

 

 

La nature des nébuleuses

 

Le problème de la nature des nébuleuses animait le débat astronomique. C’est William Huggins (1824-1910) qui découvrit en 1864 la première nébuleuse planétaire et qui releva grâce à des analyses spectroscopiques qu’elle était constituée d’un gaz incandescent et non pas d’un système d’étoiles (aujourd’hui nous savons que la nébuleuse planétaire est un anneau de gaz autour d’une étoile petite et très chaude). Cette découverte venait contredire l’hypothèse des « îles d’Univers ».

Les observatoires astronomiques, tels que celui de Greenwich, commencèrent donc vers la fin du siècle à ressembler de plus en plus à de modernes laboratoires de physique où travaillaient des chercheurs professionnels. Toutefois, dans une science fondée sur l’observation au moyen d’instruments et sur l’interprétation des images obtenues au moyen de ces derniers, il était très problématique de distinguer ce qui était l’objet réel observé et ce qui était un effet optique produit par l’instrument. Le cas le plus connu fut la « découverte » des célèbres canaux de Mars par l’astronome italien Giovanni V. Schiaparelli (1835-1910), découverte qui devait exciter l’imagination de beaucoup sur des rencontres et des invasions d’« extraterrestres ».

La controverse sur la nature des nébuleuses ne devait être résolue qu’au début de notre siècle. Entre-temps, elle avait été reliée au problème de l’évolution stellaire. L’observation de nouvelles et très nombreuses nébuleuses spirales contribua à renforcer la thèse selon laquelle ces nébuleuses n’étaient autres que la phase initiale de la formation d’une étoile. Du reste, au début du XXe siècle, presque tous les astronomes étaient d’accord pour considérer que tous les astres observables faisaient partie de notre Galaxie. Ce n’est que le renforcement et la meilleure localisation des observatoires qui a permis de résoudre la question.

 

 

Le renforcement des observatoires

 

Ce renforcement se produisit principalement aux États-Unis, grâce à la tenace initiative d’astrophysiciens tels que Percival Lowell (1855-1916), auquel on doit entre autres la prévision de l’existence d’une neuvième planète au-delà d’Uranus - c’est-à-dire Pluton - observée seulement en 1930 et George Ellery Hale (1868-1938) : c’est ainsi que furent construits les observatoires du mont Wilson, le Lowell Observatory en Arizona, et enfin l’observatoire du mont Palomar, doté du plus grand télescope à réflexion du monde. L’attention se concentra sur une nébuleuse spirale, déjà localisée à la fin du XIXe siècle et appelée nébuleuse d’Andromède. Un assistant de Lowell, Vesto Melvin Slipher (1875-1969), réussit à en obtenir quatre plaques photographiques qui révélaient certaines raies spectrales très nettes. Le problème était que ces raies, tout en étant analogues aux raies émises par le Soleil et par d’autres nébuleuses, étaient légèrement déplacées par rapport à la position à laquelle on pouvait s’attendre. La seule façon d’interpréter ce déplacement était de penser que la nébuleuse était en mouvement. Et le calcul de la vitesse de déplacement donna un résultat surprenant. La nébuleuse d’Andromède voyageait à une vitesse d’environ 300 km/s ! En 1914, Slipher avait calculé la vitesse de 15 autres nébuleuses spirales, trouvant que la plupart d’entre elles s’éloignaient du Soleil à des vitesses qui dépassaient 1000 km/s. S’il s’était agi de « protoétoiles » internes à la Voie Lactée, elles auraient dû au contraire avoir une vitesse comparable à celle des autres étoiles. C’est ainsi que certains commencèrent à penser qu’il pouvait s’agir d’autres galaxies différentes de la nôtre.

La question fut résolue définitivement par les recherches accomplies entre 1923 et 1924 par Edwin P. Hubble (1889-1953). Non seulement il observa, à l’intérieur de la nébuleuse d’Andromède, des étoiles qui présentaient une rapide augmentation de brillance et qui s’éteignaient aussi rapidement (les « novae »), mais aussi des étoiles de brillance variable de façon régulière et périodique (les « céphéides »). Cette régularité permit d’en mesurer précisément la distance, et Hubble calcula une distance d’environ 1 000 000 d’années-lumière. Or, même les estimations par excès du diamètre de la Voie Lactée n’étaient jamais supérieures à 300 000 années-lumière. Par conséquent, Andromède ne pouvait être qu’une autre galaxie.

 

 

LA CRISE DE LA PHYSIQUE CLASSIQUE ET LA TROISIÈME RÉVOLUTION SCIENTIFIQUE

 

 

LES CARACTÉRISTIQUES PRINCIPALES DE LA PHYSIQUE CLASSIQUE

 

L’étude de la structure microscopique de la matière n’avait pas encore mis en cause, au début de ce siècle, l’idéal « classique » d’explication des phénomènes physiques. Trouver la loi des phénomènes, même si cette loi concernait les particules les plus élémentaires, revenait à appliquer les principes de la mécanique et de l’électrodynamique, qui permettaient dans tous les cas de concevoir le mouvement de ces particules comme mouvement par lequel un corps exactement identifiable suit une trajectoire bien définie dans l’espace et dans le temps. Dans cette perspective, les objets de la physique classique ressemblent encore aux planètes, et peuvent être schématisés comme points matériels qui se meuvent sous l’action de champs de forces. À côté des « corpuscules » élémentaires (les électrons, les particules , etc.), il y a les radiations, comme la lumière, qui se propagent sous la forme d’ondes. Dans tous les cas, le mouvement de ces « objets » élémentaires est exactement déterminé par leurs conditions initiales. Une fois connue la loi, nous pouvons prévoir avec exactitude la trajectoire future du corps, et nous pouvons dans un certain sens « nous la représenter » comme déplacement de quelque chose dans l’espace et dans le temps.

Si des considérations probabilistes interviennent, comme dans le cas de la mécanique statistique, ou dans le cas des phénomènes de désintégration radioactive, on peut penser qu’elles sont un raccourci pour traiter des systèmes trop complexes ou qu’elles sont la conséquence de l’ignorance des circonstances détaillées dans lesquelles se produit le phénomène. Tout comme la physique aristotélicienne et la physique cartésienne abhorraient le vide, de la même façon la physique classique dans son ensemble abhorre le hasard. On ne peut pas admettre l’existence de phénomènes échappant à toute loi et intrinsèquement fortuits.

En outre, dire que tout objet suit une trajectoire bien déterminée dans l’espace, cela veut dire aussi que l’on considère le temps comme un paramètre indépendant, il existe un temps absolu, qui s’écoule de façon uniforme, par rapport auquel on mesure l’évolution de tout système.

Ce que nous appelons la « troisième révolution scientifique » est précisément l’effet de la « crise » de l’ensemble de ces certitudes traditionnelles.

 

 

LE PROBLÈME DE L’ÉLECTRODYNAMIQUE DES CORPS EN MOUVEMENT

 

La théorie des électrons de Lorentz représenta, entre autres, une réponse au problème du mouvement relatif de la matière et de l’éther. Lorentz défendait l’idée que l’éther était traversé par des corps matériels en mouvement sans être en aucune façon entraîné par eux. Il en dérivait que l’éther dans son ensemble restait toujours immobile. En pratique, le système de référence au repos par rapport à l’éther était un système de référence privilégié, c’est-à-dire celui qu’identifiait l’espace absolu newtonien.

La seule forme de mouvement de l’éther était les ondes qui s’y propageaient, et en particulier la radiation électromagnétique. Ces ondes avaient une vitesse fixe et constante - dont la valeur dépendait des propriétés de l’éther - uniquement dans le système de référence dans lequel l’éther était au repos, tandis que dans un système en mouvement par rapport à l’éther, on aurait dû observer de petites variations de la vitesse. Or, il se trouve qu’un système de référence sûrement en mouvement par rapport à l’éther était précisément celui de nos laboratoires terrestres, étant donné que la Terre effectuait en permanence un mouvement de rotation autour de son axe et de révolution autour du Soleil. On aurait donc dû observer les effets du mouvement de la Terre sur la vitesse de la lumière.

Il faut toutefois tenir compte du fait que la théorie de Lorentz rendait difficiles les observations. Il dérivait en effet de cette théorie que les effets du mouvement de la Terre (et de tout autre corps animé par une vitesse v par rapport à l’éther) étaient difficilement observables car proportionnels au carré du rapport v/c, c indiquant la vitesse de la lumière qui, comme nous le savons, est un nombre très important. Toutefois, un habile expérimentateur américain, Albert Abraham Michelson (1852-1931) avait, dès 1882, inventé un appareil en mesure de révéler ces effets. Par conséquent, le problème consistait encore à établir si la Terre entraînait l’éther ou si l’éther restait toujours immobile. Les résultats de l’expérience de Michelson, répétée plusieurs fois avec des appareils de plus en plus précis et perfectionnés, montraient qu’il n’était pas possible de révéler un mouvement relatif de la Terre et de l’éther, et étaient donc en faveur de la première hypothèse.

Lorentz, naturellement, ne pouvait pas accepter ce résultat et la recherche d’une solution à ce problème fut au centre de ses préoccupations à partir de 1892, c’est-à-dire à partir de l’année où il avait formulé la théorie des électrons. La seule issue qu’il parvint à trouver fut que le mouvement à travers l’éther produisait sur les corps matériels ces effets (par exemple la contraction de leur longueur dans la direction du mouvement) qui empêchaient de le révéler expérimentalement. C’était une conclusion étrange. Il y avait quelque chose qui se produisait mais qui ne pouvait, en aucun cas, être observé expérimentalement. En fait, c’était comme si dans le passage du système de référence de l’éther au système de référence du laboratoire, il fallait appliquer des transformations de coordonnées particulières (qui furent ensuite appelées transformations de Lorentz), qui reflétaient précisément l’action de l’éther sur les corps en mouvement.

Ces conclusions étaient inacceptables pour un jeune physicien, Albert Einstein (1879-1955), qui travaillait à l’office des brevets de Berne. Il avait des doutes sur l’existence même de l’éther, entre autres parce que les recherches qu’il avait effectuées sur les phénomènes d’émission et d’absorption de la lumière par la matière l’avaient convaincu que la lumière devait avoir une nature corpusculaire, comme le pensait Newton. En même temps, il était convaincu que le principe de relativité (c’est-à-dire l’impossibilité de découvrir un système de référence en repos absolu et l’équivalence qui s’ensuivait de tous les systèmes de référence en mouvement rectiligne et uniforme l’un par rapport à l’autre) avait une validité fondamentale.

 

 

La découverte de la relativité restreinte

 

Einstein se posa donc le problème de concilier avec le principe de relativité la thèse de Lorentz selon laquelle la vitesse de la lumière est indépendante de la vitesse de la source qui l’émet. La seule façon de le faire consistait à remettre en cause les anciennes idées d’espace et de temps. Il fallait d’abord redéfinir le concept de simultanéité entre des événements éloignés l’un de l’autre, et ensuite redéfinir le concept de longueur d’un corps en mouvement par rapport au système de référence dans lequel ce corps était observé. De cette façon, on obtenait les transformations de Lorentz, non pas comme effet physique du mouvement à travers l’éther, mais comme effet d’une nouvelle cinématique fondamentale, fondée précisément sur la révision des concepts d’espace et de temps.

Les conséquences de la nouvelle théorie étaient bien peu intuitives et, dans certains cas, déroutantes. C’est pour cette raison qu’elle eut beaucoup de mal à s’affirmer dans la communauté des physiciens. Il fallait en effet admettre :

- que la simultanéité entre deux événements ne pouvait pas être considérée comme absolue, mais seulement comme relative au système de référence dans lequel les événements étaient observés ;

- que la vitesse de la lumière avait la même valeur dans tout système de référence (c’est-à-dire qu’elle était une constante universelle) ;

- que la durée d’un processus accompli par un système en mouvement par rapport au système de référence de l’observateur était plus longue que celle du même processus dans le système de référence (le phénomène de la dilatation du temps) ;

- que la longueur d’un corps en mouvement par rapport au système de référence de l’observateur était plus petite (dans le sens du mouvement du corps) que celle du même corps mesurée dans un système de référence au repos par rapport à ce corps (le phénomène de la contraction des longueurs) ;

- que la masse d’un corps augmentait au fur et à mesure qu’augmentait la vitesse du corps même ;

- qu’aucun corps et aucune action physique ne pouvaient se déplacer à une vitesse dépassant celle de la lumière.

À partir de ces prémisses et du principe de conservation de l’énergie, Einstein déduisit une autre conséquence extrêmement importante. La masse d’un corps était équivalente à son énergie, c’est-à-dire qu’elle pouvait se convertir en énergie, et inversement.

La conséquence générale, qui fut soulignée par le mathématicien lituanien Hermann Minkowsky (1864-1909), était que l’espace et le temps ne pouvaient plus être séparés l’un de l’autre. La variable temporelle n’était que la quatrième coordonnée d’une entité unique, l’espace-temps à quatre dimensions.

Mais Einstein n’était pas encore satisfait. Le fait que sa théorie se limitait aux systèmes de référence inertiels (c’est-à-dire en mouvement rectiligne et uniforme) lui semblait une limite inacceptable. En même temps, il existait un fait qui jusqu’alors n’avait pas encore été expliqué : la masse inertielle (celle qui opposait une résistance à n’importe quelle action d’une force) était tout à fait identique à la masse gravitationnelle (celle qui jouait le rôle de « source » de la force de gravité). Selon Einstein, cela ne pouvait pas être une situation fortuite. Si, comme il s’ensuit de la mécanique, dans un système accéléré, se produit une force « apparente », la force gravitationnelle elle aussi pourrait être causée par le même effet. Et cela est confirmé par le fait qu’à l’intérieur d’un système en chute libre, on ne perçoit aucune force de gravité. Il s’agit d’un système inertiel.

La solution géniale de Einstein fut la suivante : l’espace-temps à quatre dimensions n’est pas un espace euclidien, mais est un espace courbe, dont la courbure s’accentue à proximité des corps massifs. Et il y avait même une manière d’observer cette courbure. En effet, la lumière se propage en ligne droite. Or, si l’espace est courbe, quand la lumière passe, par exemple, à côté du Soleil, elle doit subir une déviation. L’occasion permettant de vérifier cette hypothèse fut l’éclipse du 29 mai 1919 (on peut observer les étoiles derrière le Soleil seulement lorsque celui-ci subit une éclipse). Une expédition d’astronomes anglais effectua les observations et trouva qu’effectivement, la position apparente des étoiles qui se trouvaient à ce moment-là près du Soleil était déplacée par rapport à celle que l’on observe normalement. La lumière était courbée par le champ gravitationnel du Soleil. Einstein devint ainsi le symbole du génie scientifique.

 

 

LA QUANTIFICATION DE L’ÉNERGIE

 

À la fin du XIXe siècle, fut effectuée une autre découverte extrêmement importante pour la physique du siècle suivant. Le mérite de cette découverte revient au physicien théoricien Max Planck (1858-1947). Elle marqua un tournant dans la description des phénomènes physiques encore plus radical que celui qui fut marqué par la théorie de la relativité. Planck s’occupait de thermodynamique et s’intéressait à l’émission et à l’absorption des radiations électromagnétiques par les corps chauffés à une température donnée. Au fur et à mesure que la température d’un corps augmente, il émet des radiations d’une longueur d’onde toujours plus petite. Un radiateur émet une radiation infrarouge non visible, une poêle commence à émettre même dans le champ du visible, et la couleur d’un métal incandescent devient de plus en plus claire et intense au fur et à mesure que la température augmente. À partir de la lumière émise par le Soleil, il est possible de déduire que sa surface présente une température d’environ 6 000 °C. Bref, à des températures plus élevées correspondent des radiations de fréquence plus élevée (et, par conséquent, de longueur d’onde plus petite).

L’objectif de Planck était d’expliquer ce phénomène à partir de l’hypothèse selon laquelle les radiations étaient émises et absorbées par les particules élémentaires chargées qui formaient les atomes des corps. Planck supposa qu’au fur et à mesure que la température augmentait, l’énergie du corps se transférait à des particules ayant une fréquence d’oscillation de plus en plus grande. Or, si on admettait, suivant la théorie classique, que chaque particule oscillante pouvait se mouvoir avec n’importe quelle énergie, indépendamment de sa fréquence d’oscillation, on parvenait à des conclusions tout à fait absurdes et contraires aux données expérimentales. La seule façon de résoudre la question consistait à supposer que les particules oscillantes ne pouvaient recevoir que des valeurs discrètes d’énergie. Si une particule oscillait suivant une fréquence , son énergie devait être proportionnelle à cette fréquence tout en étant un multiple entier d’un « quantum » élémentaire d’énergie, égal à la valeur d’une constante fondamentale, que Planck indiqua par la lettre h (depuis lors appelée « constante de Planck »), multiplié par la fréquence d’oscillation . La formule de Planck E = h marque le début, en 1900, de la physique quantique.

Les conséquences de cette théorie étaient radicales. Elles impliquaient en effet que toute particule ne pouvait varier d’énergie qu’en effectuant un « saut » d’une valeur, par exemple, h à une valeur 2h, et ainsi de suite. Cela signifiait l’abandon de l’une des principes essentiels de la description classique, à savoir celui selon lequel les variations d’énergie se produisaient de façon continue.

 

 

La théorie de la structure atomique

 

Cette idée suscita d’interminables controverses, mais commença d’être appliquée dans différents domaines de la physique. En particulier, elle connut une application très importante dans la théorie de la structure atomique. C’est à un jeune physicien théoricien danois, Niels Bohr (1885-1962), qui était parti travailler en Angleterre grâce à une bourse d’études et avait fréquenté les laboratoires de Joseph John Thomson et de Rutherford, que l’on doit cette géniale application. Il était convaincu que les propriétés de stabilité exceptionnelles des atomes (si un atome subissait une perturbation, un choc par exemple, il revenait rapidement exactement à sa configuration initiale) et les propriétés de régularité des processus qui s’y produisaient (un atome émettait une lumière toujours une même fréquence exactement définie) ne pouvaient absolument pas être expliquées de façon classique. L’idée de Planck lui permit donc d’énoncer une théorie tout à fait révolutionnaire. Les électrons qui tournent autour du noyau occupent généralement des états stationnaires qui sont stables par définition, et qui correspondent à une succession de valeurs discrètes de leur énergie. Les électrons n’émettent des radiations que lorsqu’ils effectuent une transition d’un état stationnaire à l’autre (c’est-à-dire lorsqu’ils effectuent un saut quantique). De cette façon, le mystère des raies spectrales trouvait une explication immédiate.

La stabilité et la régularité des processus atomiques était donc expliquée par Bohr, en admettant que les variables dynamiques de l’atome, l’énergie et le moment angulaire, ne pouvaient pas varier de façon continue, mais seulement à l’occasion de processus essentiellement discontinus, c’est-à-dire que l’on ne pouvait même pas concevoir comme des processus qui se produisaient dans l’espace et dans le temps. En outre, on ne pouvait plus prévoir exactement quelle était et quand avait lieu une transition électronique, ce qui fut mis en évidence par les développements ultérieurs de la théorie. Par conséquent, on ne pouvait plus prévoir théoriquement que la probabilité d’une transition. Tout comme les phénomènes d’émission radioactive, les phénomènes d’émission et d’absorption de la radiation électromagnétique semblaient être dominés par un hasard intrinsèque. Et ce n’est pas tout. La radiation émise au cours de la transition (ou « saut ») d’un électron d’un état stationnaire à l’autre (ou, comme l’on aurait dit par la suite, d’un niveau d’énergie à un autre) ne dépendait pas seulement des conditions « initiales » dans lesquelles l’électron se trouvait, mais aussi de son état final, qui, comme nous l’avons dit, ne pouvait pas être prévu a priori. L’idée atomiste, comme Bohr devait le commenter par la suite, ne concernait plus seulement la divisibilité limitée de la matière, mais s’étendait à la conception des processus physiques élémentaires. C’est en cela que la découverte de Planck semblait révolutionnaire.

 

 

LE DILEMNE ONDE-CORPUSCULE

 

La même année où il publiait l’article fondamental sur la théorie de la relativité, Albert Einstein en publiait également un autre, contenant une hypothèse singulière : la lumière doit avoir une structure corpusculaire. Vingt ans devaient s’écouler avant que les physiciens ne commencent à prendre au sérieux cette hypothèse « extravagante ». Les phénomènes de diffraction et d’interférence, en effet, ne pouvaient être compris que dans le cadre de la conception ondulatoire. Mais Einstein disposait de quelques preuves, théoriques et expérimentales.

Du point de vue théorique, l’hypothèse des quanta de lumière (comme fut appelée par la suite l’hypothèse de la nature corpusculaire de la radiation) expliquait assez bien la loi du corps noir étudié par Planck. Elle offrait dans un certain sens un modèle intuitif permettant de comprendre pourquoi l’énergie ne pouvait varier que par quantités discrètes. Au point de vue expérimental, elle décrivait bien un phénomène problématique, découvert vers 1880 , mais pas encore expliqué : l’effet photoélectrique.

Un corps illuminé par la radiation lumineuse émettait spontanément des électrons. La lumière fournissait aux électrons l’énergie suffisante pour « s’échapper » du corps. Mais qu’y avait-il d’étrange ? Essentiellement trois aspects :

- chaque corps ne commençait à émettre des électrons que lorsque la lumière avait une fréquence dépassant un certain « seuil » ;

- l’émission se produisait instantanément, dès que le corps était illuminé ;

- l’énergie des électrons émise était proportionnelle à la fréquence de la radiation.

Or, selon la théorie ondulatoire, l’énergie de la radiation n’a rien à voir avec la fréquence. Elle est représentée par l’intensité de la radiation. Une lumière très intense transporte davantage d’énergie qu’une lumière moins intense, indépendamment de sa fréquence (ou longueur d’onde). Par conséquent, il ne peut exister aucun lien entre l’énergie et la fréquence, et on peut encore moins expliquer une fréquence de seuil. En outre, si l’émission photoélectrique était l’effet d’une résonance entre la fréquence de la radiation et la fréquence d’oscillation des électrons à l’intérieur de la matière, il faudrait un certain temps pour que les électrons « accumulent » l’énergie suffisante pour rompre les liaisons par lesquelles ils sont unis.

Comme nous l’avons déjà dit, ce problème devait animer le débat des physiciens pendant deux décennies. C’est Arthur Holly Compton (1892-1962) qui donna un tournant décisif à toute la question. L’effet dit effet Compton, qu’il découvrit au début des années 20, montrait clairement que lorsque la lumière heurtait un électron et le « lançait » dans une direction donnée, la lumière même subissait une diminution de fréquence qui dépendait de la direction dans laquelle elle était diffusée. Tout cela pouvait être interprété en imaginant l’interaction entre l’électron et la radiation comme un véritable choc entre deux boules de billard, dans lequel se conservait aussi bien l’énergie que la quantité de mouvement.

Pouvait-on considérer ce phénomène comme une confirmation définitive de l’hypothèse des quanta de lumière ? Pas vraiment. Les propriétés ondulatoires de la lumière ne pouvaient pas être négligées. D’autant plus qu’en 1924, le physicien théoricien français Louis de Broglie (1892-1987) avait avancé l’hypothèse selon laquelle même les particules matérielles, telles que les électrons, avaient une nature ondulatoire. Et en 1927, furent observés les premiers effets de diffraction et d’interférence également dans un faisceau d’électrons. D’ailleurs, le fonctionnement du microscope électronique moderne se fonde précisément sur le caractère ondulatoire des électrons.

Par conséquent, non seulement la lumière, mais aussi toute la matière avait une nature duale. Toutes les particules élémentaires se comportent comme des ondes ou comme des corpuscules selon les situations.

 

 

LA MÉCANIQUE QUANTIQUE ET LES NOUVEAUX PROBLÈMES CONCEPTUELS

 

Le modèle de la structure atomique de Bohr n’était qu’un embryon de théorie. Trop de principes étaient injustifiés et trop de problèmes restaient encore à résoudre. La recherche du savant danois se poursuivait sans cesse. En 1918, il parvint à expliquer les différences d’intensité des raies spectrales émises par un gaz incandescent comme les différentes probabilités d’effectuer les transitions (ou les sauts quantiques) correspondantes. C’est pourquoi, il utilisa ce que l’on appelle principe de correspondance, selon lequel pour des énergies très élevées par rapport au quantum élémentaire, l’atome se comportait comme un système parfaitement classique. Mais comment déduire, par exemple, le nombre et les valeurs de l’énergie des différents états stationnaires dans lesquels orbitaient les électrons autour de l’atome ?

Le problème consistait à trouver une nouvelle théorie mécanique fondamentale. Cette nouvelle mécanique fut développée par un groupe de jeunes physiciens théoriciens, Hendrik Anthony Kramers (1894-1952), Wolfgang Pauli (1900-1958), Werner Heisenberg (1901-1976), Pascual Jordan (1902-1980), qui travaillaient dans les centres de Copenhague et de Göttingen, et qui étaient guidés par Bohr et par Max Born (1882-1970), et, en même temps, par le physicien autrichien, Erwin Schrödinger (1887-1961), qui suivait apparemment un chemin très différent, qui lui avait été suggéré par les recherches d’Einstein et de Broglie. Les premiers parvinrent en 1925 à une formulation symbolique très abstraite, appelée « mécanique des matrices », dans laquelle toute grandeur dynamique (l’impulsion, l’énergie, le moment angulaire, etc.) était représentée par un tableau de nombres (une matrice, précisément). Le deuxième formula la mécanique ondulatoire, en supposant que l’état d’une particule dans un champ de forces était représenté par une fonction d’onde, indiquée par le symbole , qui pouvait être obtenue grâce à la solution d’une équation particulière, l’équation dite de Schrödinger.

C’est Schrödinger qui démontra, en 1926, que les deux façons de représenter la mécanique étaient formellement équivalentes. C’est ainsi que naissait la mécanique quantique moderne. Et, l’année suivante, Heisenberg en montra un aspect déroutant. La connaissance précise de l’une des variables dynamiques, de par leur définition même, impliquait qu’une autre variable, liée à celle-ci, était tout à fait indéterminée. Par exemple, si l’on connaît exactement la position d’une particule, son impulsion (c’est-à-dire la quantité de mouvement, ou, si l’on veut, la vitesse) est tout à fait indéterminée et peut recevoir n’importe quelle valeur. Le principe d’indétermination de Heisenberg posait donc une limite insurmontable à la possibilité même de concevoir une particule élémentaire tout comme dans la physique classique. On ne pouvait plus imaginer un électron ou un photon comme un corpuscule qui suit une trajectoire définie dans l’espace et dans le temps.

 

 

L’interprétation de Copenhague

 

En 1927, Max Born et Niels Bohr donnèrent une interprétation générale de la nouvelle façon de décrire les objets subatomiques élémentaires. Selon Born, la fonction d’onde de Schrödinger ne décrivait pas la distribution dans l’espace et dans le temps d’une « substance » matérielle, mais était une fonction qui permettait d’obtenir uniquement la probabilité qu’en effectuant une mesure sur l’une quelconque des variables qui définissent l’état d’un système, cette variable recevait une valeur ou une autre. Selon Bohr, le changement de description imposé par la nouvelle mécanique imposait un principe de complémentarité, sur la base duquel les appareils de mesure qui permettent d’obtenir la valeur de certaines variables et qui permettent d’imaginer la particule comme un corpuscule, excluent la possibilité d’obtenir la valeur d’autres variables et d’imaginer la particule comme une onde. En d’autres termes, entre le point de vue ondulatoire et le point de vue corpusculaire, il n’y a pas de contradiction, du moment que les deux représentations physiques ne peuvent jamais être utilisées simultanément pour décrire la même situation expérimentale.

Cette interprétation, qui sera appelée par la suite « interprétation de Copenhague » de la mécanique quantique, n’a jamais été acceptée à l’unanimité par tous les physiciens et, cas tout à fait singulier dans l’histoire de la physique, elle a continué à susciter des polémiques et des débats jusqu’à aujourd’hui. En particulier, Albert Einstein a toujours déclaré son désaccord à ce sujet. Pour lui, la description ultime de la réalité ne peut pas être probabiliste. Si je ne connais que des probabilités, cela veut dire qu’il manque quelque chose à ma connaissance, et aucun résultat expérimental ne pourra jamais me convaincre que Dieu « joue aux dés » avec le monde.

La discussion épistémologique entre Einstein et Bohr sur l’interprétation de la mécanique quantique est l’un des débats les plus fondamentaux de l’histoire de la physique, comparable en importance et de par la capacité intellectuelle de ses participants au débat classique entre Newton et Leibniz sur les fondements de la nouvelle physique à la fin du XVIIe siècle.

 

 

LA PHYSIQUE NUCLÉAIRE ET DES PARTICULES ÉLÉMENTAIRES

 

Avec la mécanique quantique, le problème de la structure des atomes et des molécules qui composent la matière semblait définitivement résolu. Entre 1927 et 1929, la mécanique quantique fut développée de façon à inclure la théorie de la relativité restreinte et à traiter de façon appropriée les processus d’interaction entre radiation et matière. La mécanique quantique relativiste et l’électrodynamique quantique furent formulées grâce à la contribution décisive du physicien anglais Paul Adrien Dirac (1902-1984). Sa théorie quanto-relativiste encadrait rationnellement les propriétés de l’électron qui avaient été suggérées par les recherches sur la structure atomique et par la théorie statistique quantique, qui se référait à des systèmes constitués par de grands nombres d’objets quantiques élémentaires. En particulier, elle rendait compte d’une propriété étroitement quantique des particules élémentaires, lesquelles devaient avoir un moment angulaire intrinsèque, auquel correspondait un moment magnétique intrinsèque. Du moment que la seule façon de se représenter cette propriété était de penser aux particules comme à de petites toupies en rotation continue autour de leur axe, cette propriété fut appelée « spin ».

Sur la base des valeurs de spin, il était donc possible de subdiviser toutes les particules élémentaires en deux classes bien distinctes : celles qui avaient un spin égal à un nombre semi-entier (1/2, 3/2, etc.) et celles qui avaient un spin entier (0, 1, 2, etc.). Les premières, comme par exemple les électrons, respectaient un principe, dont l’hypothèse avait déjà été formulée par Pauli en 1923, appelé « principe d’exclusion », sur la base duquel, dans un même système, il ne pouvait pas y avoir deux particules ayant exactement le même état dynamique (ce qui, en mécanique quantique, veut dire avoir la même valeur pour tous les nombres quantiques qui permettent de définir leur état). Les deuxièmes, comme par exemple les photons, ne devaient pas respecter cette condition. Les particules du premier type furent appelées « fermions », étant donné que leurs propriétés caractéristiques - qui se révélaient dans des systèmes constitués par un grand nombre de particules identiques et donc à traiter statistiquement - furent mises en évidence dans le premier grand travail théorique de Enrico Fermi (1901-1954) en 1925. Les particules du deuxième type furent appelées « bosons », du nom du physicien indien Satyendra Nath Bose (1894-1974) qui en conçut la statistique.

 

 

La découverte du positron

 

C’est précisément en analysant le comportement statistique des électrons, que Dirac était parvenu à la conclusion qu’il n’y avait rien dans la théorie qui puisse empêcher ces particules d’occuper des états d’énergie négative. Il fallait même penser que ces états, étant d’énergie plus basse que ceux d’énergie positive, étaient tous déjà normalement occupés. En réalité, selon Dirac, nous observons expérimentalement que les électrons reçoivent une énergie suffisante pour passer d’un état à énergie négative à un état d’énergie positive. En 1932, Carl Davis Anderson (1905-1991) observa une particule qui avait la même masse que l’électron, mais de charge opposée. Le positron avait été découvert. L’interprétation de Dirac, initialement jugée trop fantaisiste, trouvait une confirmation extraordinaire. Les positrons pouvaient en effet être conçus comme les « places » laissées vides (c’est-à-dire les « lacunes ») par les électrons qui avaient été extraits de la « mer » d’états d’énergie négative. En effet, immédiatement après, on vérifia qu’une radiation fortement énergétique comme celle qui est constituée par un rayon pouvait « se matérialiser » en un couple de particules « symétriques » constitué d’un électron et d’un positron. Le rayon n’avait fait qu’extraire, en lui fournissant son énergie, un électron de la mer d’états d’énergie négative.

Avec cette découverte, commence de fait la recherche moderne sur les particules élémentaires, qui donne lieu à une extraordinaire et féconde interaction entre les hypothèses théoriques et les résultats expérimentaux qui durent encore aujourd’hui. Les nouvelles techniques expérimentales se fondent sur la conception et la construction d’appareils de mesure de plus en plus efficaces, qui enregistrent les effets d’événements, souvent très rares, qui ont lieu dans le monde microscopique, de façon à en reconstruire la dynamique. La chambre de Wilson, la chambre à bulles, les émulsions photographiques, les compteurs, les scintillateurs, etc. signalent et enregistrent le passage des particules chargées et à travers leurs traces, permettent de remonter au parcours des particules neutres. Pour ce faire, on utilise des sources naturelles, comme les matériaux radioactifs et les rayons cosmiques, et des sources artificielles, comme les accélérateurs de particules, en mesure de produire des particules de très haute énergie, que l’on fait ensuite entrer en collision contre des cibles. Nous ne pouvons pas entrer dans les détails de cette histoire complexe. Signalons seulement qu’elle a conduit en très peu de temps à la multiplication du nombre des particules élémentaires et à la recherche de schémas unifiants, capables de les regrouper en familles et donc de les concevoir comme des manifestations de combinaisons de particules encore plus élémentaires. En même temps, cette recherche a changé l’organisation de la physique. Les petits laboratoires comprenant au maximum une dizaine de chercheurs ont été remplacés par les grands laboratoires dans lesquels des centaines et parfois des milliers de personnes travaillent, avec des tâches extrêmement spécialisées, à un projet commun, donnant lieu à ce que l’on appelle la « big science ».

 

 

La bombe atomique

 

Une première manifestation de cette tendance eut lieu durant la Seconde Guerre mondiale aux États-Unis. Tous les plus grands physiciens occidentaux furent recrutés pour arriver à la réalisation, dans des temps rapides, de l’engin le plus destructeur que l’esprit humain n’ait jamais conçu : la bombe atomique.

Cette terrible application technologique devait être le sommet de la recherche en physique nucléaire, qui avait commencé au début des années 30. Ce domaine vit se manifester pleinement les capacités géniales de Enrico Fermi et du groupe de jeunes physiciens qui fut réuni à l’université de Rome par son directeur de l’époque Orso Mario Corbino (1876-1937). C’est précisément Corbino, dans un discours célèbre et prophétique, tenu en 1929, qui indique que la recherche sur le noyau est le terrain vers lequel les efforts doivent être orientés, le problème de la structure atomique étant résolu par la mécanique quantique.

En 1932, James Chadwick (1891-1974) résolut expérimentalement la question de la structure du noyau atomique, établissant l’existence de particules neutres de masse à peu près égale à celle des protons, les neutrons. Dès lors, Fermi et ses collaborateurs Emilio Segrè (1905-1989), Franco Rasetti (1901), Edoardo Amaldi (1908-1989), aidés par le théoricien Ettore Majorana (1906-1938), commencèrent à travailler sur la radioactivité, conçue comme manifestation de phénomènes nucléaires. Leur découverte fondamentale eut lieu en 1934, quand ils parvinrent à rendre radioactives des substances données, en les bombardant au moyen de neutrons de basse énergie.

Le noyau pouvait être rendu instable et même modifié par l’homme. Ce dernier aspect semblait réaliser le rêve des anciens alchimistes. Et en effet, plusieurs physiciens se consacrèrent à la production d’éléments chimiques « artificiels ».

Mais l’aspect le plus important de la recherche était l’instabilité. En effet, en 1938, Otto Hahn (1879-1968) et Fritz Strassmann (1902-1980) observèrent qu’un noyau d’uranium bombardé par des neutrons se scinde en deux noyaux d’éléments plus légers. Ils avaient découvert la fission nucléaire. Par ailleurs, le processus comportait la libération d’une énorme quantité d’énergie. L’importance, y compris militaire, de la découverte fut remarquée presque immédiatement, en particulier par Einstein. C’est ainsi que, quand les États-Unis entrèrent en guerre, fut lancé un projet grandiose, le projet Manhattan, qui devait mener à la découverte des méthodes d’utilisation de l’énergie nucléaire. En particulier, c’est Fermi lui-même, qui ayant entre-temps émigré en Amérique pour des motifs politiques, qui réalisa en 1942 la première pile atomique. Quand Arthur Compton, leader des physiciens américains, transmit ce succès au président Roosevelt, il utilisa la fameuse phrase codée : « Le navigateur italien a débarqué dans le Nouveau-Monde. »

 

 

LES SYSTÈMES COMPLEXES ET LE CHAOS

 

Avec la mécanique quantique, l’idéal classique semblait définitivement dépassé. Pourtant, comme cela a lieu parfois dans un torrent d’eau qui déborde - une comparaison non fortuite -, le cours de l’histoire de la physique prend parfois des directions tout à fait inattendues. Le destin de la physique semblait marqué par la découverte des particules fondamentales et par conséquent, par le désir de révéler les secrets les plus intimes de la matière, c’est-à-dire les secrets relatifs à sa constitution élémentaire. Cet idéal de recherche, qui était pleinement justifié et trouvait d’extraordinaires possibilités de développement dans l’éclaircissement des problèmes relatifs à la nature et à l’origine de l’Univers, avait comme corollaire l’idée de « ramener » le comportement de systèmes complexes, c’est-à-dire constitués d’un nombre énorme de particules, aux lois qui régissaient le comportement de ces constituants élémentaires.

Bref, la complexité était conçue comme l’effet du grand nombre des éléments interagissants. Mais dans le domaine de la physique du XIXe siècle, on avait entrevu une autre perspective, qui avait toutefois semblé problématique à l’époque et même presque certainement vouée à l’échec. C’est le mathématicien français Henri Poincaré (1854-1912) qui mit pleinement en évidence la question, quand il affronta, d’un point de vue mathématique, ce qui devait être un simple problème de mécanique : le problème de l’évolution d’un système constitué par trois corps qui interagissaient sous l’effet de forces gravitationnelles. Poincaré mit en lumière que ce problème ne pouvait pas être résolu suivant les méthodes connues du calcul différentiel. Du moment que le système était considéré comme régi par des équations différentielles non linéaires, la solution ne pouvait pas être trouvée par une simple série d’opérations mathématiques. Ce que l’on réussissait toutefois à entrevoir, c’était que les solutions, c’est-à-dire les mouvements des corps interagissants, devaient être extraordinairement compliquées. En pratique, s’il était vrai que l’un des corps accomplissait une trajectoire déterminée en ayant initialement une position et une vitesse déterminées (c’est-à-dire avec des conditions initiales déterminées), il était vrai également que le même corps avec des conditions initiales imperceptiblement différentes devait suivre une trajectoire complètement différente.

C’est ainsi qu’avait été découvert le phénomène « théorique » de l’instabilité dynamique (ou, comme on dit souvent, de la dépendance sensible aux conditions initiales). Comme si, par exemple, considérant un système composé d’une sphère qui tombe du sommet d’une montagne, il était pratiquement impossible de prévoir dans quelle direction elle tomberait. Une différence si minime soit-elle de position aurait fait qu’au lieu d’aller vers le versant sud, elle se dirigerait vers le versant nord. En réalité, la mécanique classique avait été jusqu’alors appliquée à des problèmes très simples. Poincaré démontra que, dès que les choses se compliquaient un peu, l’évolution d’un système était en fait imprévisible.

Ce qui semblait une limite supplémentaire aux possibilités explicatives de la physique classique, devait au contraire se révéler fécond en résultats surprenants à une époque plus récente. Quand l’évolution d’un système devient tout à fait imprévisible, comme dans le cas cité ci-dessus, on dit que cette évolution est chaotique. Or, cela fait comprendre que, dans de nombreux systèmes, la complexité de leur comportement ne requiert pas nécessairement, pour être expliquée, le recours à un nombre important de petits systèmes constituants qui interagissent entre eux. Ce fait devait devenir évident avec l’étude des phénomènes de turbulence.

 

 

LA NOUVELLE COSMOLOGIE

 

L’astrophysicien Edwin P. Hubble avait démontré que l’Univers était peuplé d’autres galaxies, certaines étaient semblables et d’autres différentes de la nôtre. Initialement, l’observation de ces galaxies était orientée en premier lieu vers l’étude de leur nature et donc vers leur classification. Mais, entre-temps, Einstein avait formulé sa théorie de la relativité générale et, dès 1917, avait mis en relation les affirmations de cette théorie avec certaines hypothèses générales sur la nature de l’Univers tout entier. En fait, c’était le premier travail moderne de cosmologie au sens propre.

Certains astrophysiciens recueillirent cette suggestion et commencèrent à mettre en relation les observations astronomiques avec une théorie générale de l’Univers. Parmi ces astrophysiciens, le Hollandais Willem de Sitter (1872-1934), le Russe Aleksandr Aleksandrovitch Fridman (1888-1925) et le Belge Georges Lemaître (1894-1966) commencèrent à penser que l’Univers n’était pas statique. Leurs suppositions portaient en effet à rendre plausible, surtout du point de vue théorique, la possibilité que notre Univers soit en expansion.

 

Le support expérimental de cette hypothèse fut fourni précisément par Hubble. En observant systématiquement le déplacement des spectres émis par les galaxies, il parvint à formuler une loi qui mettait en évidence comment ce décalage (appelé « décalage vers le rouge » ou redshift) était en première approximation proportionnel à la distance à laquelle se trouvait la galaxie. Cette donnée pouvait être interprétée dans le cadre de l’hypothèse de l’expansion de l’Univers. Mais si l’Univers est en expansion constante, alors, en remontant dans le temps, il y a quelques milliards d’années, il devait être entièrement enfermé dans un volume très petit. Il devint donc non seulement naturel de parler d’un âge de l’Univers, mais on pouvait imaginer qu’au commencement des temps, une monstrueuse explosion, le big bang, avait été à l’origine de l’Univers.

« 2 découverte de propriétés communes à plusieurs substances permettait de chercher quels étaient les éléments simples, les principes matériels dont toutes les choses étaient faites, les principes causals qui les faisaient changer et leurs caractéristiques essentielles communes ou distinctes. Cette tendance à la différenciation et à l’unification est typique de la science grecque, tout comme le fait de s’appuyer sur les différences et les analogies qualitatives. Mais les Grecs cultivèrent aussi les mathématiques et la logique (voir mathématiques grecques). Dans leurs théories apparaît la distinction entre ce qui est parfait, ou idéal, en tant qu’abstrait, et ce qui ne fait qu’approcher ce comportement idéal, en tant que concret. Ce n’est pas tout. Les études de logique conduisent à distinguer un raisonnement correct d’un raisonnement erroné, elles permettent de savoir ce qu’il est possible de déduire et ce qu’il n’est pas possible de déduire de certaines prémisses. Pour toutes ces raisons, l’esprit du savant grec est à la fois un esprit laïc (qui n’admet pas de dogmes et de préjugés acceptables sans discussions) et un esprit critique (qui soumet à la discussion rationnelle et au contrôle phénoménologique) ses idées et celles des autres. Certes, en l’absence d’hypothèses quantitatives plus précises et, surtout, de capacités techniques appropriées, les principales sources d’information sur la nature du monde physique, c’est-à-dire les expériences, faisaient cruellement défaut. Mais il ne faut pas oublier que le but ultime des « amis de la sagesse » était de séparer les vagues opinions, les croyances ingénues de l’homme commun, c'est-à-dire ce qu’ils appelaient la doxa , des connaissances certaines que l’observation, la réflexion rationnelle et la déduction logique nous permettent d’atteindre, c'est-à-dire ce qu’ils appelaient l’ epistêmê . C’est ainsi que naquît la science occidentale. LA RECHERCHE DE PRINCIPES UNIFIANTS L’école ionienne On peut situer les débuts de ce que nous considérons comme la « science » grecque à l’époque où furent réalisées les recherches des naturalistes ioniens, qui produisirent leurs théories entre 650 et 500 av. J.-C. Les plus connus sont ceux de l’école de Milet, c'est-à-dire Thalès (624 - 546 environ. av. J -C.), Anaximandre (610 - 546 av. J.-C.) et Anaximène (586 - 528 av. J.-C.). Le nom de « naturalistes » dérive précisément du fait que leur attitude tendait à s’opposer à celle des prêtres et des théologiens puisqu’ils considéraient que le moment était venu de « faire violence à la nature pour qu’elle nous révèle ses secrets ». La caractéristique principale de leur recherche est la tentative de trouver le principe unique, la substance ou l’essence dont toutes choses tirent leur origine. Autrement dit, ils s’efforçaient de trouver l’unité (ou le Principe, Archè ) à l’origine de la multiplicité de toutes les choses. Pour Thalès, ce principe était l’eau, pour Anaximandre, c’était une substance première indéfinie (l’ apeiron ), pour Anaximène, c’était l’air. Ces idées se fondaient de façon suggestive avec les théories cosmologiques et cosmogoniques complexes qu’ils proposaient et qui constituèrent, jusqu’à Ptolémée, la cosmologie classique. La théorie des quatre éléments »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles