Devoir de Philosophie

Le désir de comprendre de quoi est fait le monde qui les entoure a toujours excité la curiosité des hommes.

Publié le 08/12/2013

Extrait du document

Le désir de comprendre de quoi est fait le monde qui les entoure a toujours excité la curiosité des hommes. Aux réponses plutôt religieuses ou métaphysiques ont succédé des tentatives d'explications fondées sur l'observation et la déduction. Là commence l'histoire de la science, inséparable de celle des sociétés où elle s'est forgée. Ce lien est si fort qu'on peut se demander si chaque société n'a pas créé la science dont elle avait besoin. N'y a-t-il bien alors qu'une histoire des sciences ? On situe généralement l'aube de la pensée scientifique à l'époque de Galilée, c'est-à-dire au commencement du XVIIe siècle, en Europe occidentale. L'histoire des sciences commencerait donc, elle aussi, en ces lieux et temps. Peut-être cette affirmation est-elle fondée si l'on regarde la science avec les yeux d'Occidentaux de la fin du XXe siècle. Elle cesse complètement de l'être dès lors qu'on tente de se donner une idée plus globale de l'histoire en général. On s'aperçoit, alors, que l'aventure de la pensée scientifique s'identifie avec celle des civilisations et que toute tentative pour l'en isoler la dénature totalement. Même chez les Grecs, auxquels on fait le plus crédit d'un véritable esprit scientifique, l'imbrication entre une authentique recherche des lois de la nature et une pensée philosophique et religieuse condamne à l'échec toute tentative d'isoler la science de son contexte historique et culturel. Avertissement Pour évoquer dans un volume limité l'histoire des sciences, il a donc fallu faire des choix, procéder à des exclusions et adopter une méthodologie qui rende admissibles ces simplifications. Les exclusions. On s'est borné à ne parler que des sciences dites « exactes », ce qui, dans une acception délibérément restreinte, exclut l'ensemble des sciences de l'homme, médecine comprise. N'ont été prises en compte que les mathématiques, les sciences de l'univers, la physique, la chimie, les sciences de la vie et de la terre. Considérant que leurs développements contemporains sont traités dans les articles consacrés à la biographie des hommes de science ainsi que dans les dossiers relatifs aux différentes disciplines, que l'on trouvera dans le présent ouvrage, on s'est volontairement arrêté aux premières années du XXe siècle. Compte tenu du rôle prépondérant joué, notamment dans les trois derniers siècles, par la science occidentale, on a été amené, à regret, à ne pas aborder le sujet, vaste et délicat, de la science autre qu'occidentale, en particulier extrême-orientale, mais on a pris en compte certains aspects de la science arabe. Les choix. Depuis l'illustre classification d'Auguste Comte, toute présentation globale des sciences en respecte l'itinéraire obligé, que ce soit dans les collections éditoriales ou dans les manuels. Le choix est ici différent ; il s'efforce d'aborder les sujets de façon transdisciplinaire. On a retenu cinq thèmes autour desquels le discours scientifique s'est développé tout au long de l'histoire, sans qu'aucun appartienne en propre à une discipline particulière : la lumière, l'espace, la matière, le temps et la vie. Chaque thème a pu être alors abordé dans un cadre plus étroitement disciplinaire, mais en faisant appel, chaque fois, à deux, voire à trois disciplines. La méthode. Plutôt que de traiter chaque thème de façon exhaustive - ce qui ne se justifiait pas à partir du moment où la restriction à cinq thèmes était en soi déjà très limitative -, on a préféré privilégier des moments particulièrement importants, qui correspondent en général à l'irruption d'un concept nouveau, ou d'un fait expérimental nouveau, qui va apporter de profonds changements dans la vision du sujet qu'en ont les contemporains ou que nous en avons. Là encore, il a fallu faire des choix, et il a semblé préférable de développer de façon pas trop schématique un nombre restreint de points qui ont été jugés particulièrement importants ou représentatifs. Chaque partie est autonome et peut être lue indépendamment. Elle constitue une sorte de « coup de flash » sur une « ouverture », pas forcément ponctuelle ni dans le temps ni dans l'espace. Le propos n'est pas de développer une histoire des sciences, mais de raconter des histoires de la science. La lumière La lumière fut l'un des sujets les plus sensibles dans le développement de la physique, d'une part comme support de la vision, qui est le principal canal de notre connaissance du monde, et comme vecteur d'informations venant d'endroits inaccessibles (les étoiles), d'autre part comme champ d'expérience privilégié pour les diverses théories du rayonnement. Le premier des quatre textes qui suivent relate l'étape cruciale où l'on a pris conscience du rôle que joue la lumière dans la vision ; les deux textes suivants montrent comment la lumière fut d'abord traitée comme objet soumis aux lois de la mécanique, donc objet mécanique lui-même, puis comme l'essence même d'un objet non mécanique. Le dernier texte présente l'émergence du concept de nombre complexe, outil mathématique indispensable à la description de grandeurs oscillatoires, dont la lumière est un exemple privilégié. Ibn al-Haytham et l'inversion du regard L'optique conçue comme une description des conditions dans lesquelles les objets nous sont « visibles » et des lois qui président à cette vision, en particulier celles qui concernent la nature et le rôle de la lumière, fut un sujet d'intérêt chez les Grecs. Outre quelques scolies et textes de Démocrite, Chrysippe, Platon, Aristote, entre autres, deux traités importants, l'un d'Euclide, écrit probablement vers 300 avant J.-C., l'autre de Claude Ptolémée, mathématicien et astronome alexandrin du IIe siècle de notre ère, sont parvenus jusqu'à nous. Distants de quatre cents ans, ces deux textes traduisent une évolution, non seulement dans le mode de raisonnement, totalement déductif chez Euclide le Géomètre, plus nuancé dans l'utilisation des données de l'expérience chez Ptolémée l'Astronome, mais aussi dans le niveau des connaissances, en particulier en ce qui concerne les lois de la réflexion et de la réfraction. Le texte d'Euclide se présente comme une suite de théorèmes qui s'enchaînent les uns aux autres à partir d'un ensemble de sept postulats, dont le but est de comprendre l'aspect visible des objets, le lien qui existe entre leur réalité et ce que l'oeil en perçoit : relation entre les visions d'un même objet de face ou de profil, diminution apparente de la taille d'un objet qui s'éloigne, etc. L'optique de Ptolémée se présente, au contraire, comme la description d'une suite d'expériences menées de façon systématique, à l'aide d'instruments qu'il décrit, dans le but de justifier des propositions. Ainsi peut-il montrer que, dans la réflexion sur un miroir, l'angle d'incidence et l'angle de réflexion sont égaux. Il établit, dans diverses circonstances de réfraction, une table de correspondance entre angle d'incidence et angle de réfraction, sans toutefois pouvoir, faute d'outils trigonométriques suffisants, formuler la loi de la réfraction. On serait tenté, devant cette description, de considérer ces deux ouvrages comme les premières ébauches d'une théorie de l'optique qui, faute d'outils mathématiques et d'instruments adéquats, n'aurait pas pu aboutir à l'optique géométrique telle qu'elle s'est constituée au cours du XVIIe siècle : une recherche des lois physiques auxquelles sont soumis les rayons lumineux dans la trajectoire qu'ils suivent entre deux points, lesquels peuvent éventuellement être l'objet que nous regardons et notre rétine. Là n'est pas du tout le but recherché par les opticiens de l'Antiquité. Pour la grande majorité des « savants » grecs, le monde n'existe qu'autant qu'il est perceptible, et toute description qu'on peut en faire ne peut être que celle que nos sens nous en donnent. Les objets ne se différencient que par des qualités sensibles, qui portent la marque des sens par lesquels nous les appréhendons. Or l'acte d'appréhension n'est pas passif, et, de même que nous tendons la main pour palper un objet, de même l'appréhension visuelle découle-t-elle d'une « action » visuelle, à savoir la projection de notre regard sur les objets. Toute la conception grecque de la vision repose sur l'affirmation que l'oeil « projette » littéralement un « rayon visuel » sur l'objet qu'il regarde, et que la vision n'est autre que la sensation que nous avons de ce rayon, de sa direction, de sa longueur, du nombre de rayons voisins qui l'entourent et de la réaction de l'objet à son contact. Toutes les expériences ingénieuses de Ptolémée n'ont d'autre but que de mettre en évidence les propriétés de ces rayons visuels et de leurs avatars quand ils rencontrent la surface d'un miroir ou d'un plan d'eau. Les oeuvres d'Euclide et de Ptolémée connurent une large diffusion et firent autorité pendant près d'un millénaire, malgré les difficultés qui nous semblent inhérentes au concept de rayon visuel. Ce qui nous apparaît comme un présupposé idéologique contraire à une attitude scientifique ne gênait en rien des esprits pour lesquels la doctrine aristotélicienne représentait la seule vérité. Il n'était nullement choquant de faire jouer à l'oeil un rôle actif dans la vision, puisque les qualités visibles d'un objet ne pouvaient être que celles que révélaient les sens. Cette impossibilité de concevoir des propriétés optiques intrinsèques aux objets et à l'espace, indépendantes de l'oeil qui les regarde, constituait un verrou épistémologique qui condamnait à l'échec toute tentative pour aller au-delà du travail de Ptolémée. Le premier et immense pas à franchir pour arriver à une théorie objective de l'optique et de la vision fut d'abolir le concept de rayon visuel qui sort de l'oeil, pour le remplacer par celui de rayon lumineux qui y pénètre, ce qui fut l'oeuvre d'Ibn al-Haytham al-Hassan, connu en Occident sous le nom latinisé d'Alhazen. Ibn al-Haytham al-Hassan est probablement né en 965 à Bassorah, en Irak, et mort au Caire en 1040. Ses travaux ont porté sur des sujets de mathématiques, d'astronomie et de physique, mais aussi de philosophie et de religion. Il est surtout connu par les sept livres de son traité d'optique (Kit?b f?lman?dhir), lesquels furent dès la fin du XIIe siècle traduits en latin et diffusés en Europe, où ils connurent un succès durable, comme l'attestent les références faites, entre autres, par Bacon, Kepler, Snel von Royen (ou Snellius), Fermat. Les résultats contenus dans ce traité sont établis suivant une méthode rigoureuse, dans laquelle les hypothèses sont soigneusement discutées, les conséquences mathématiques de ces hypothèses sont avancées et les résultats d'expériences conçues et réalisées à cette fin sont apportés comme confirmation. Une théorie tout à fait cohérente de la lumière est d'abord formulée, dans laquelle les corps sont classés suivant leur aptitude à émettre, à renvoyer (nous dirions diffuser), à réfléchir ou à laisser passer la lumière. À cela s'ajoute une définition du rayon lumineux, conçu comme la limite d'un faisceau passant par une ouverture dont la taille tend vers zéro. Ayant constaté que toutes les propriétés que prêtait Ptolémée aux rayons visuels pouvaient être assumées par des rayons lumineux entrant dans l'oeil, Ibn al-Haytham décida que le rayon visuel était une hypothèse superflue, qu'il convenait donc de rejeter. C'est donc au nom d'un principe d'économie que ce considérable saut épistémologique est franchi : pourquoi s'encombrer d'une hypothèse qui alourdit le raisonnement sans rien lui apporter de plus ? Il est remarquable que, pour de semblables raisons d'économie, le modèle héliocentrique apparut à Copernic préférable au géocentrisme, et qu'Einstein raisonna de même lorsqu'il abolit l'éther. Certes, Ibn al-Haytham n'avait pas saisi la notion d'image rétinienne, indispensable pour comprendre le fonctionnement de l'oeil. Son modèle géométrique de la vision, assez proche de celui de Ptolémée, ne considérait que les rayons qui entraient dans l'oeil perpendiculairement à la cornée, et qui seuls étaient perçus. C'est à Kepler, dernier astronome opticien et lecteur avéré d'Ibn al-Haytham, que revint la gloire de découvrir l'image rétinienne, mais il est certain que la voie ouverte par Ibn al-Haytham était déterminante. Il est amusant de noter que, bien que ne remettant nullement en cause les acquis antérieurs, la physique du XXe siècle suggère de réviser l'affirmation selon laquelle le regard ne joue aucun rôle dans la nature de l'objet perçu : l'interprétation dite « de Copenhague » de la mécanique quantique affirme, en effet, que le fait de voir un objet impose à celui-ci d'être dans un état quantique particulier, celui précisément dans lequel on le voit (ce qui restreint, de ce fait, l'extension de cet objet sur l'ensemble de ses états possibles). Bien qu'il ne s'agisse plus d'un acte de vision stricto sensu, on pourrait aussi mentionner les nouvelles microscopies de proximité, où l'on « voit » les objets par l'intermédiaire du contact qu'une très fine pointe établit avec eux. Complétez votre recherche en consultant : Les corrélats Euclide Ibn al-Haytham Abu 'Ali al-Hassan incidence (angle d') Kepler Johannes Ptolémée Claude quantique (mécanique) rayon - 2.PHYSIQUE réflexion - 1.OPTIQUE réfraction Les livres sciences (histoire des) - Ptolémée, homme de science accompli, page 4677, volume 9 sciences (histoire des) - coupe de l'oeil, page 4678, volume 9 Descartes et Newton : lumière et vide La controverse qui a opposé Newton à Descartes sur la nature de la lumière, et à travers eux la philosophie anglaise à la philosophie continentale, est intéressante en ce qu'elle montre à quel point les problèmes relatifs à la nature de la lumière ne peuvent être disjoints de ceux que pose la structure de la matière. Descartes, comme Newton, est successeur de Galilée, et tous deux sont, à ce titre, persuadés à la fois que le grand livre de la nature est écrit en termes géométriques et que « la lumière consiste dans le mouvement d'une certaine matière ». C'est, comme on va le voir, sur la nature de ce mouvement dont il faut rendre compte en termes mathématiques que porte la controverse. À ne lire que la Dioptrique, publiée en 1637, on pourrait croire que Newton et Descartes donnent de la réflexion et de la réfraction de la lumière une explication semblable, et sont donc d'accord sur la nature du mouvement qui constitue la lumière. Descartes explique en effet dans cet ouvrage, vignettes illustratives à l'appui, que la réflexion et la réfraction de la lumière à la séparation entre deux milieux peuvent être comprises à l'aide d'une comparaison, celle d'une balle qu'un joueur enverrait à l'aide d'une raquette soit sur un mur, s'il s'agit de la réflexion, soit sur une toile tendue, dans le cas de la réfraction. Il en déduit les lois qui portent son nom (bien qu'il les ait probablement reprises de Snel von Royen) : l'angle de réflexion est égal à l'angle d'incidence, et les angles de réfraction et d'incidence sont tels que le rapport de leurs sinus garde une valeur constante, pour un même couple de milieux. Newton (1642-1727), trente ans plus tard, réalisa toute une série d'expériences qui ne furent publiées sous forme de traité cohérent, l'Optique, qu'en 1704. Il retrouva ces mêmes lois et s'appuya également, pour ce faire, sur une conception corpusculaire de la lumière : « Il est évident, écrit-il, que la lumière est composée de particules... » Or si pour Newton il est « évident » que la lumière est réellement constituée de corpuscules, il n'en va pas du tout de même chez Descartes qui, pour éviter tout malentendu à ce sujet, revint en 1644, dans les Principes de la philosophie, sur l'explication donnée dans la Dioptrique. Il n'est pas nécessaire, dit-il, d'imaginer que la lumière est réellement constituée de projectiles ; il s'agit là d'une simple comparaison. Le supposer serait d'ailleurs en contradiction avec le fait, déjà affirmé dans la Dioptrique, que la lumière « est une sorte de matière fort subtile qui s'étend sans interruption depuis les astres jusqu'à nous et ne prend pas de temps à son passage ». Il vaut mieux, dit Descartes, imaginer la lumière comme une pression « fort tremblante » communiquée aux sphères de l'« air subtil », pression qui se propagerait de proche en proche en suivant la même trajectoire qu'un mobile, ce qui justifie la comparaison utilisée dans la Dioptrique. Huygens, dans son Traité de la lumière, paru en 1690, paracheva l'oeuvre de son maître Descartes et développa, à partir de ces considérations, une théorie ondulatoire de la lumière bâtie par analogie avec la théorie du son. De fait, au-delà de la différence ainsi exprimée quant à la véritable nature de la lumière, ce sont deux conceptions du monde, toutes les deux compatibles avec la nouvelle physique, mais pourtant radicalement opposées sur le fond, qui s'affrontent. Pour Descartes, l'extension seule constitue la nature des corps, et la lumière ne fait pas exception : elle est constituée de tourbillons qui emplissent tout l'espace laissé libre par la matière et dont la vitesse de rotation, liée à la couleur, se trouve modifiée à la traversée de deux milieux de manière à satisfaire aux « lois de Descartes ». Pour Newton, au contraire, la matière, tout comme la lumière, est constituée de corpuscules, chacun caractérisé par sa masse (elle-même liée à la couleur dans le cas de la lumière). Tout comme Descartes, il invoque les lois de la réfraction à l'appui de sa thèse : les corpuscules dont est faite la lumière subissent, de la part de ceux dont est constituée la matière (qu'il s'agisse de l'air ou de l'eau), une « force réfringente » agissant à distance et d'autant plus intense que la densité du milieu est plus grande ; à l'entrée d'un rayon de l'air dans l'eau, par exemple, les corpuscules de lumière sont accélérés perpendiculairement à la surface, et c'est ainsi que Newton explique et calcule la loi des sinus. En outre, pour que la lumière puisse aller en ligne droite, non seulement dans le vide, mais également dans les milieux matériels, il faut que la matière soit faite de parties non jointives, autrement dit d'atomes séparés par de grands espaces vides. Au monde « plein » de Descartes, lié à une vision cosmologique selon laquelle Dieu aurait une fois pour toutes donné une certaine quantité de mouvement au chaos initial et le laisserait, depuis, évoluer sans que cette quantité soit modifiée, s'oppose le monde vide de Newton, où les corpuscules de matière et de lumière n'occupent qu'une faible partie du monde et sont sans cesse soumis à des forces à distance qui les mettent en mouvement, plus ou moins selon leur masse. À la physique statique de Descartes, où tout, y compris la lumière, s'explique par la figure et le mouvement, s'oppose la dynamique de Newton, où tout, y compris la lumière, s'explique par la masse et le mouvement. La lumière, dans cette affaire, a joué le rôle qui sera le sien tout au long de l'histoire de la physique moderne : celui d'un révélateur de la structure de la matière. Complétez votre recherche en consultant : Les corrélats Descartes René Galilée (Galileo Galilei, dit en français) Huygens Christiaan matière Newton (Isaac) réflexion - 1.OPTIQUE réfraction vide Les livres sciences (histoire des) - formation de l'image rétinienne d'après Descartes, page 4678, volume 9 sciences (histoire des) - l'optique géométrique en 1850, page 4679, volume 9 Échec du mécanisme et émergence du concept de champ « Venons-en à la physique telle qu'elle se présentait à l'époque », écrit Einstein dans son autobiographie de 1949, se remémorant son entrée dans la carrière de physicien en 1900. « En dépit des succès enregistrés dans beaucoup de domaines, il régnait en matière de principes un dogmatisme figé : au commencement (si jamais il y en eut un), Dieu avait créé les lois de Newton, ainsi que les masses et les forces qui leur sont nécessaires. C'est tout ; le reste était obtenu par déduction, grâce à la mise au point de méthodes mathématiques appropriées. » Telle est l'essence de ce que plus tard on a appelé le « mécanisme » : le monde est fait d'atomes qui sont des particules au sens de Newton, à savoir des objets ponctuels de masse définie, et le jeu des atomes entre eux, régi par les trois lois du mouvement de Newton, explique tous les phénomènes physiques. Autrement dit, il suffit de connaître la nature des forces agissant entre les atomes pour être en mesure, par application des lois de Newton, de calculer leur mouvement et d'en déduire une description des phénomènes. En somme, tout n'est que matière et mouvement. Cette vision du monde s'est, pendant longtemps, révélée adéquate. Le son, par exemple, peut être interprété comme un ébranlement de l'air, produit au niveau de la source sonore, qui se propage jusqu'au récepteur par mise en mouvement des couches d'air de proche en proche. De même, les phénomènes hydrodynamiques peuvent être compris en analysant les forces agissant sur de petits volumes d'eau constitués de particules et en leur appliquant les lois de Newton. L'un des grands succès de ce newtonianisme fut, au XVIIIe siècle, l'explication d'un certain nombre de phénomènes électriques grâce à la loi de Coulomb qui établit la forme de la force agissant entre deux particules. Les phénomènes magnétiques, eux aussi, semblaient pouvoir être interprétés à l'aide de forces agissant entre des « masses magnétiques ». Mieux même, il sembla à un moment que l'explication de la nature de la lumière relevait elle aussi du mécanisme. Après que Fresnel eut mis en évidence le caractère ondulatoire de la lumière en analysant les phénomènes d'interférences - ce qui excluait toute interprétation corpusculaire, comme celle de Newton -, il parut naturel de se représenter la lumière sur le modèle du son, comme l'avait proposé Huygens dès la fin du XVIIe siècle. La lumière, disait-on, est la mise en mouvement progressive d'un ébranlement, non pas de couches d'air comme dans le cas du son, mais d'un certain « milieu » appelé « éther », aux propriétés mal définies si ce n'est d'être le porteur matériel des ébranlements mécaniques qui constituent la lumière. Le mécanisme se trouva renforcé à la fin du XIXe siècle par la démonstration que les lois de la thermodynamique, et la température elle-même, pouvaient être elles aussi expliquées en supposant que la matière est faite d'atomes en mouvement. « Il ne faut pas s'étonner, écrit Einstein dans son autobiographie, si aux yeux de presque tous les physiciens du siècle dernier la mécanique classique est apparue comme constituant la base solide et définitive de toute la physique, voire de toutes les sciences de la nature. » Pourtant le ver était dans le fruit. Maxwell avait en effet produit dans les années 1870 une théorie qui faisait de la lumière un phénomène électromagnétique, mêlant électricité et magnétisme. Or, pour arriver à cette conclusion, Maxwell n'avait pas eu besoin de supposer que la lumière est un phénomène mécanique porté par l'« éther ». Il avait simplement montré que l'énergie (indépendamment de toute représentation sous forme de mouvement) se propage de proche en proche. Ce n'est qu'après avoir obtenu les équations mathématiques de cette propagation qu'il se mit en devoir de les interpréter en termes d'« éther », comme le mouvement de quelque chose... et ne put y parvenir. Ce qui, comme devait le montrer Einstein en 1905, n'a rien d'étonnant : en effet (et c'est même là le résultat principal de la théorie de la relativité restreinte), l'éther n'existe pas : contrairement à ce qu'avaient cru les physiciens du XIXe siècle dans le cadre du mécanisme, son existence n'est pas nécessaire à la propagation de la lumière. Mais alors, quelle est la nature de la lumière ? Bien avant 1905, et dès les premières années qui suivirent l'élaboration de la théorie de Maxwell, on s'était habitué à la considérer comme une énergie se propageant de proche en proche, ce que l'on appelle un champ. Et, de fait, c'est en s'appuyant sur l'idée de champ, introduite trente ans auparavant par Faraday, et non sur des considérations mécaniques, que Maxwell avait abouti à ses fameuses équations. Faraday (1791-1867) avait l'avantage sur bien d'autres de ses collègues de ne pas avoir appris la physique à l'école et à l'université. Pour lui, les phénomènes naturels ne devaient pas nécessairement être rapportés au mécanisme, et les équations de la mécanique n'avaient pas ce parfum de réalité qu'une longue pratique du formalisme leur avait donné dans l'esprit de ses collègues. En particulier, l'idée d'une attraction à distance, sur laquelle repose en grande partie le système de Newton, lui semblait suspecte (comme elle l'avait d'ailleurs semblé aux contemporains de Newton, qui y sentaient un parfum d'alchimie et de forces occultes) : que deux masses puissent interagir sans qu'il y ait le moindre contact, autrement dit que la matière puisse agir là où elle n'est pas, troublait profondément Faraday. Aussi avait-il remplacé à son usage personnel, mais bientôt aussi en tant qu'explication du monde, la force à distance de Newton par l'idée d'un « champ », c'est-à-dire une modification de l'espace due à la présence d'une masse. Si une masse subit une force de la part d'une autre masse, c'est, disait-il, parce que cette autre masse modifie l'espace autour d'elle ; la force que subit la deuxième masse n'est alors que l'effet produit sur elle par la modification de l'espace. C'est en reprenant cette idée que Maxwell avait obtenu une explication satisfaisante de la nature de la lumière. C'est en dégageant cette idée de la nécessité d'un support matériel qu'Einstein acheva de la caractériser : la lumière n'est qu'un champ, ou plutôt le champ est une entité tout aussi matérielle que la matière. Le mécanisme, comme vision du monde, avait vécu. Complétez votre recherche en consultant : Les corrélats champ - 2.PHYSIQUE cinématique Coulomb (Charles de) Einstein Albert éther - 1.HISTOIRE Faraday Michael force Fresnel Augustin Jean Huygens Christiaan masse Maxwell James Clerk mécanique - 1.PHYSIQUE son - La propagation du son thermodynamique Les livres sciences (histoire des) - Faraday à la Royal Institution, page 4679, volume 9 sciences (histoire des) - lignes de forces magnétiques : dessin de Maxwell, page 4680, volume 9 Les nombres complexes Ce que nous appelons aujourd'hui « nombre complexe » intervient pour la première fois au XVIe siècle, à propos des recherches tendant à généraliser les méthodes de résolution des équations. Parce que les formules de résolution de l'équation du second degré livrent explicitement soit des solutions positives, soit des solutions négatives, soit des solutions impossibles, il est relativement simple de concevoir que les solutions négatives ou impossibles aient pu être tout simplement délaissées avant le XVIe siècle comme non conformes au cadre de pensée d'une époque. Le problème est tout autre avec l'équation du troisième degré, X3 = pX + q, puisque la formule de Cardan produite par les algébristes italiens Scipione del Ferro (1456-1526), Jérôme Cardan (1501-1576) et Raffaele Bombelli (1526-1572), fournit des solutions réelles par addition de racines impossibles, et oblige du même coup à reconnaître à ces quantités une certaine forme d'existence, puisque leur somme est réelle. Bombelli donne dès 1572 une règle des signes portant sur leur multiplication. Girard énonce en 1629 un principe de permanence qui n'est alors qu'une conjecture, une sorte de pari qui détermine le champ de l'algèbre pour les deux siècles à venir : « Toute équation de degré n doit avoir exactement n racines. » Si ces nouvelles écritures, « sophistiques » pour Bombelli, « irrépéribles » pour Girard, « imaginaires » pour Descartes, se trouvent ainsi intégrées, elles n'interviennent que formellement, sans y être reconnues au même titre que les nombres positifs ou négatifs. Bien plus, elles semblent manifester, dans un problème, l'impossibilité d'obtenir des solutions réelles, d'où cette appellation de quantités impossibles qui leur reste attachée jusqu'au XIXe siècle, d'autant plus que leur manipulation soulève sans cesse de nouveaux paradoxes vis-à-vis de la signification traditionnelle des notions de nombre et d'opération. Dès lors que François Viète, Abraham de Moivre et Leonhard Euler, à partir d'analogies opératoires portant sur leurs développements en série, établissent le lien entre quantités impossibles et fonctions trigonométriques, dès lors que Leibniz et Jean Bernoulli, intégrant les fonctions rationnelles par leur décomposition en éléments simples, étendent aux imaginaires les règles du calcul intégral obtenues pour les réels, les notions d'exponentielle et de logarithme se trouvent généralisées, mais débouchent sur celle de fonction multiforme, si difficile à concevoir. L'audace inventive de ces écritures pose la question fondamentale du rapport entre mathématiques et réalité. Les symboles, qu'ils soient ceux de la géométrie - les figures -, de l'arithmétique ou de l'algèbre, représentent-ils des objets existants, ou désignent-ils des productions abstraites de la pensée ? Les hypothèses mathématiques peuvent-elles être autre chose que des évidences empruntées à la réalité ? Et même, qu'est-ce que la réalité ? S'agit-il d'une réalité concrète, visible, qui peut être appréhendée immédiatement, ou d'une réalité plus abstraite, qui serait peutêtre elle-même à inventer ? Relativement à toutes ces questions, le XIXe siècle fait basculer les mathématiques du côté de l'invention : l'idée d'une représentation géométrique est pour ainsi dire « dans l'air ». Wessel (1745-1818), arpenteur danois, dans un mémoire resté ignoré jusqu'en 1897, généralise la signification des opérations en admettant que la représentation analytique puisse exprimer la direction des segments. Carl Friedrich Gauss (1777-1855) démontre le théorème fondamental de l'algèbre en utilisant la même idée. Les mémoires d'Argand, de Mourey, d'Augustin Cauchy à Paris, de Buée et de Warren en Angleterre, fixent la correspondance entre les opérations sur ces quantités et les transformations géométriques du plan : déplacements et similitudes. Ceux de William R. Hamilton (1805-1865), à Dublin, et de Cauchy explicitent les propriétés algébriques de ce nouveau champ opératoire. La synthèse de ces différentes approches conduit, sur le plan philosophique, à la pleine reconnaissance de l'imaginaire en mathématiques, et, sur le plan mathématique, à une profonde transformation des notions de fonction et d'espace. Algèbre et géométrie deviennent au même titre langage mathématique. Dès lors que Cauchy, Bernhard Riemann et Karl Weierstrass fondent la théorie des fonctions de la variable complexe, l'espace de dimension 3, dans lequel les fonctions, et leurs courbes associées, seraient définies de manière univoque, ne peut plus servir de représentation naturelle. La géométrie elle-même change de nature : dans le plan, le segment, devenu vecteur, ne désigne plus seulement des figures statiques, il permet d'opérer sur des mouvements. Aucune opération sur les triplets de nombres ne parvenant à représenter les opérations sur les vecteurs, Hamilton est conduit à l'invention des quaternions (1843), Cayley à celle des octaves (1845), inventions qui contraignent le premier à renoncer à la commutativité de la multiplication, le second à son associativité. Hamilton introduit, en outre, un opérateur différentiel qui, appliqué à une fonction de points, donne son gradient et, appliqué à une fonction vectorielle, donne un quaternion, dont la partie scalaire est l'opposé de sa divergence, et sa partie vectorielle, son rotationnel. Ces termes seront définis par Maxwell qui, après avoir exploré et confronté à ses propres recherches les travaux de Hamilton, développera la notion de champ. Complétez votre recherche en consultant : Les corrélats algèbre analyse - 2.MATHÉMATIQUES arithmétique Bernoulli - Bernoulli Jean Ier Cardan (Gerolamo Cardano, dit en français Jérôme) Cauchy (Augustin Louis, baron) Cayley Arthur champ - 1.MATHÉMATIQUES complexes (nombres) Descartes René équation Euler Leonhard exponentielle (fonction) fonction - 2.MATHÉMATIQUES Gauss Carl Friedrich géométrie gradient - 1.MATHÉMATIQUES imaginaire (nombre) Leibniz Gottfried Wilhelm logarithme mathématiques Moivre (formule de) négatif (nombre) nombre - 1.MATHÉMATIQUES opération quaternion racine - 3.MATHÉMATIQUES réel (nombre) Riemann Bernhard transformation géométrique trigonométrie vectoriel (espace) Viète François Weierstrass Karl Les livres sciences (histoire des) - Carl Friedrich Gauss dans son observatoire, page 4680, volume 9 Complétez votre recherche en consultant : Les corrélats lumière optique physique - La révolution galiléenne et la naissance de la physique classique L'apogée de la physique classique : électromagnétisme et thermodynamique L'espace L'espace est à la fois celui dans lequel nous nous déplaçons, et dont nous avons une perception immédiate, celui - déjà moins accessible - dans lequel se situent et tournent les astres, enfin celui dans lequel le mathématicien développe les relations entre les grandeurs qu'il manipule, et qui est complètement abstrait. Le débat entre espace fini et espace infini, entre « finitude et infinitude du monde », s'est poursuivi longtemps en se fondant sur des critères plus métaphysiques et religieux que scientifiques. Il n'est pas complètement clos aujourd'hui, malgré un ralliement presque total à l'idée d'un espace fini. La plus importante étape, la révolution copernicienne, qui ôte à la Terre sa place centrale, fut rapidement suivie d'une remise en cause de la structure profonde de l'Univers, dont on pensait jusqu'alors qu'il était formé de sphères emboîtées. Le texte intitulé « la disparition des orbes » montre quelles étapes il a fallu franchir pour aboutir à la notion d'orbites, de trajectoires suivies par les astres. La notion d'espace est indissociable de celle de mouvement, et cela pose le problème, décrit dans le troisième texte (« espace et relativité »), de la relativité réciproque des mouvements, problème central posé par Galilée et Newton, revu et bouleversé par Einstein. La remise en cause de la description intuitive que nous avons de l'espace telle qu'Euclide l'avait formulée s'est avérée d'une immense richesse, et les géométries non euclidiennes (quatrième texte) sont apparues comme les plus adaptées, à la fois aux espaces abstraits des mathématiciens, et à l'espace réel, contenant de la matière, que proposa la relativité générale d'Einstein. Complétez votre recherche en consultant : Les corrélats espace - 1.PHILOSOPHIE Finitude et infinitude du monde Le problème de l'infinité du monde s'est posé dès l'aurore de la pensée scientifique, lorsque, à des récits mythologiques dont les moyens d'expression sont inadéquats à une description scientifique du monde, les présocratiques substituèrent un discours philosophique qu'ils constituèrent en jouant des oppositions et des contraires. Les doctrines qui se succédèrent, bâties les unes à partir des autres, mais aussi à l'intérieur d'une même école, se dressèrent les unes contre les autres, comme les formules qui les expriment jouent à renverser les positions de termes contradictoires. Jonglant avec le dense et le rare, le clair et l'obscur, le même et l'autre, le limité et l'illimité, les présocratiques épuisèrent en quelques générations le jeu des possibles. À ce jeu, les plus subtils affirmèrent, nièrent et dépassèrent les contraires dans un même discours : ils découvrirent la dialectique dont la forme extrême, appliquée à des coquilles vides, allait engendrer l'art des sophismes, mais aussi armer l'esprit pour le déchiffrement du monde. Ainsi, dès le temps d'Aristote, les trois théories possibles du tout, selon que l'on associe ou que l'on dissocie le monde et l'espace qui l'abrite, avaient déjà leurs adeptes. Pour les atomistes, l'espace et le monde sont infinis et infiniment peuplés d'atomes ; pour les stoïciens, l'espace extracosmique, infini et vide, abrite un monde fini ; et, pour les péripatéticiens, l'espace et le monde sont finis, puisque, au-delà du monde, il n'y a rien, ni vide, ni non-vide, ni temps, ni espace. Pourtant, le pythagoricien Architas de Tarente, actif vers 375 avant J.-C., avait opposé à la finitude du monde l'énigme de la flèche : qu'arrive-t-il si on lance une flèche au-delà des limites de l'Univers, rebondit-elle sur sa paroi ultime ou disparaît-elle de ce monde ? À cette énigme, et qui n'est qu'une énigme, Aristote, lui, qui croyait à l'immobilité de la Terre et à la rotation du ciel, répondait en opposant au monde infini une impossibilité physique : celle d'une vitesse infinie pour les étoiles du bout du monde. Impossibilité que les physiciens d'aujourd'hui reconnaissent encore. Bien que cet Univers fini limite singulièrement la puissance de Dieu, et bien que l'infinité temporelle du monde aristotélicien exclue la création selon la Genèse, l'Occident chrétien adopta la cosmologie d'Aristote. Cette cosmologie a régné sans partage jusqu'au XVIe siècle. La révolution copernicienne (le grand livre de Copernic, De revolutionibus orbium caelestium, a été publié en 1543) modifia radicalement les données physiques du problème. Les cieux devenant fixes et la révolution quotidienne étant attribuée à la Terre, l'obstacle des vitesses infinies disparut et un Univers infini devint sinon imaginable, en tout cas pensable. Copernic ne s'aventura pas sur ce terrain, et il se contenta d'évoquer le problème et d'en confier la charge aux philosophes. Au chapitre 8 du livre I, où il piège assez habilement un disciple d'Aristote, répondant à la crainte de voir la Terre se disloquer sous l'effet de sa rotation, il écrit : « Mais pourquoi n'éprouve-t-il pas plutôt cette crainte au sujet du monde, dont le mouvement doit être d'autant plus rapide que le ciel est plus grand que la Terre ? Le ciel est-il donc devenu si vaste parce qu'il s'éloigne du milieu par un mouvement d'une incroyable intensité et qu'autrement, s'il s'arrêtait, il devrait s'effondrer ? En tout cas, si cet argument a quelque valeur, la grandeur du ciel, elle aussi, croîtra à l'infini. Car plus le ciel est entraîné vers le haut par la poussée même de son mouvement, plus le mouvement sera rapide en raison de la circonférence croissante à chaque instant, qu'il doit pourtant parcourir en l'espace de vingt-quatre heures ; et réciproquement, plus le mouvement augmente, plus augmenterait l'immensité du ciel. Ainsi, vitesse et grandeur s'entraîneraient mutuellement à l'infini. Or c'est un axiome bien connu de la science physique : ce qui est infini ne peut être parcouru non plus que mû d'aucune façon ; le ciel sera nécessairement en repos. Mais, disent-ils, en dehors du ciel il n 'y a ni corps, ni lieu, ni vide ; il n'y a absolument rien et, par conséquent, le ciel n'a pas où il pourrait s'échapper. En ce cas, l'admirable est que quelque chose puisse être empêché par rien. [...] Que donc le monde soit fini ou infini, c'est là un point que nous laissons aux recherches des philosophes de la nature. » Le premier à exploiter les possibilités qu'offrait la fixité des cieux fut Giordano Bruno (1548-1600). Bruno s'opposa d'abord à la conception aristotélicienne d'un espace fini et réduit à l'intérieur du monde : « Si le monde est fini, et si en dehors du monde il n'y a rien, je vous demande, où est le monde ? Où est l'univers ? » Le monde est en luimême, lui aurait répondu Aristote. Réponse qui n'aurait pu satisfaire Bruno qui proclamait que le monde est infini, qu'il n'y a pas de corps auquel il appartiendrait d'être au centre ou à la périphérie ou entre ces deux extrêmes du monde, qui, d'ailleurs, n'existent pas, mais seulement à être entre d'autres corps. Son monde infini est donc infiniment et uniformément peuplé d'astres identiques à ceux que nous connaissons. Mais les arguments de Bruno ne sont que métaphysiques : l'infinie puissance de Dieu implique la création par lui d'un monde infini ! Si les astronomes de l'époque admettaient volontiers les arguments métaphysiques, ils ne pouvaient toutefois pas s'en contenter. Kepler, par exemple, refusa l'infinité du monde. Il évoqua lui aussi des arguments métaphysiques, mais il ajouta des arguments purement astronomiques. Ses prémisses sont simples. Premièrement, si le monde n'a ni limite ni structure déterminée, c'est-àdire si l'espace physique est infini et uniforme, la distribution des étoiles fixes dans cet Univers doit être elle aussi uniforme. En second lieu, l'astronomie s'occupant des données observables - les apparences célestes -, elle est tenue d'adapter ses hypothèses aux apparences en question. Et Kepler montra que les apparences célestes sont incompatibles avec l'hypothèse du monde infini imaginé par Bruno. Certes, la démonstration de Kepler est erronée, mais c'est parce que les données dont il disposait étaient inexactes, et non parce qu'il faisait une erreur de raisonnement. Kepler était, entre autres, abusé par la diffusion des images stellaires sur la rétine et, comme tous les astronomes de son époque, il attribua un diamètre apparent sensible aux étoiles. La parution, en 1687, des Principia de Newton et les premiers développements de la mécanique céleste relancèrent le problème cosmologique. L'espace newtonien, absolu et nécessairement étendu à l'infini, obligea les astronomes à choisir entre un monde réduit à une bulle finie, flottant dans cet espace infini, et un monde l'emplissant tout entier. Dès le début du XVIIIe siècle, certains astronomes envisagèrent l'infinité de l'Univers. Ce fut en particulier le cas d'Edmond Halley, qui avança un argument métaphysique : il est impensable que Dieu ait créé un espace infini pour y loger un monde fini (Dieu a créé le monde à partir du néant, il n'a pas commencé par créer le néant), et un argument physique : si le monde est fini, alors l'attraction gravitationnelle prédominante d'un des corps finira par attirer tous les autres corps du système et le monde se réduira à un astre unique et gigantesque. Kant également, avant de faire de la structure globale du cosmos une des antinomies de la raison, affirma nettement l'infinité du monde. À ces tenants d'un Univers infini, on opposera alors l'énigme du ciel nocturne que l'on peut formuler de la façon suivante : le nombre d'étoiles d'une sphère uniformément peuplée croît comme le cube de son rayon, alors que l'éclat apparent d'un astre décroît comme le carré de sa distance à l'observateur, la brillance d'une sphère étoilée entourant un observateur croît donc comme son rayon. Et donc, si l'on accepte un Univers infini, uniformément peuplé d'étoiles, le ciel de nuit devrait être aussi lumineux que le ciel de jour. Olbers, qui fit partie de ces tenants, crut résoudre l'énigme en suggérant une faible mais réelle absorption à travers l'espace cosmique. La réponse n'en est pas une, car les photons absorbés devraient chauffer l'espace absorbant et, si le ciel de nuit perd de son éclat, il devient infiniment chaud ! Aujourd'hui, on sait résoudre l'énigme du noir de la nuit, même sans faire intervenir l'expansion de l'Univers : la finitude de la vitesse de la lumière associée à la croyance en un Univers d'âge fini, par exemple, y suffit. De toute façon, cette énigme a perdu beaucoup de son intérêt puisque les cosmologistes sont, dans leur majorité, revenus à la conception d'un Univers fini. Complétez votre recherche en consultant : Les corrélats Aristote Bruno Giordano Copernic Nicolas cosmogonie cosmologie création Dieu Halley Edmund infini - 1.PHILOSOPHIE Kepler Johannes Newton (Isaac) Olbers Wilhelm présocratique sophisme Univers - Les différentes conceptions de l'Univers - Les conceptions anciennes Univers - Les différentes conceptions de l'Univers - Les conceptions physiques Les livres sciences (histoire des) - représentation d'un espace courbe, page 4681, volume 9 sciences (histoire des) - Aristote vu par les Arabes, page 4681, volume 9 La disparition des orbes célestes corporels et l'apparition de la notion d'orbites Il faut attendre Johannes Kepler, dont les deux premières lois des mouvements planétaires ont été publiées dans l'Astronomie nouvelle en 1609, et la troisième loi dans l'Harmonie du monde en 1618, pour qu'apparaisse, en astronomie, la notion d'orbite, c'est-à-dire de trajectoire parcourue par un corps céleste. Pour les astronomes antérieurs à Kepler, une planète ne se meut pas : elle est mue par un orbe, c'est-à-dire par une sphère corporelle. Copernic lui-même ne met pas en cause cette corporéité des sphères astronomiques alors que le double mouvement qu'il attribue à la Lune (d'une part par rapport au centre de la Terre et d'autre part par rapport au centre du monde) pose quelques problèmes quant à l'agencement mécanique des sphères motrices. On ne peut d'ailleurs pas soupçonner que le silence de Copernic ait pu, diplomatiquement, cacher une désapprobation discrète : Copernic croyait, comme ses prédécesseurs, à la corporéité des sphères. La meilleure preuve en est la nécessité d'attribuer un troisième mouvement à la Terre. Cette nécessité s'imposa à Copernic parce qu'il pensait que la Terre et les planètes sont mues par leurs orbes et non qu'elles se meuvent librement sur des orbites. Il en découle que, lors d'une révolution annuelle de la Terre, l'axe de la rotation quotidienne, incliné par rapport à l'axe de l'écliptique, devrait décrire un cône de révolution de sommet O. L'observation montre qu'il n'en est rien et que l'axe de la Terre est tout au long de l'année dirigé vers une même région du ciel, près de l'étoile polaire. Pour tenir compte de ce fait d'observation, Copernic imagina que l'axe de la Terre décrit un cône de révolution dans le sens opposé au sens de la révolution annuelle, de telle sorte que, lorsque l'orbe fait parcourir à la Terre un angle A, son axe décrit un angle légèrement plus grand A + e. Ce glissement e, très faible, rend compte de la précession des équinoxes qui, elle, fait bien décrire à l'axe de la Terre un cône de sommet O, mais en 26 000 ans. Toutefois, entre Copernic et Kepler, le terrain avait été préparé, et l'on crédite Tycho Brahe (1456-1601) d'avoir débarrassé l'astronomie tout à la fois du dogme de l'immutabilité des cieux et du carcan des sphères corporelles. En outre, on ajoute que ce fut la conséquence directe de ses observations de la nova de 1572. Dans la soirée du 11 novembre 1572, Tycho Brahe remarqua une étoile plus brillante que Vénus au nordouest de Cassiopée, à un endroit où la veille encore il n'y avait aucun astre. Signe des temps, il ne sera ni le seul astronome à remarquer la nouvelle étoile, ni le seul à en parler. Pourtant, cette apparition était chose extraordinaire. Autant les archives extrême-orientales abondent en descriptions d'astres nouveaux, que ce soient des comètes, des météores ou des novae, autant celles de l'Occident restent muettes sur ce type d'événements ; même la supernova de 1054, qui deviendra la Nébuleuse du Crabe, échappe à ceux qui ne veulent pas voir que les cieux changent. Une seule exception connue est celle de l'astre nouveau qui parut en l'an 1006 de notre ère, le fait n'étant pas rapporté par un astronome, mais par un médecin qui y voit l'annonce d'une épidémie de peste ! Tycho Brahe observa l'astre nouveau chaque nuit où la clarté du ciel le lui permit durant les dix-huit mois où il brilla, c'est-à-dire jusqu'à la fin de mars 1574, quand, ayant commencé de pâlir dès décembre 1572, il disparut. N'ayant constaté, tout au long de ces dix-huit mois, aucune variation de distance entre cet astre et les étoiles fixes au milieu desquelles il était apparu, il fallut bien admettre que cet astre était une étoile fixe. C'est ce qu'admit Tycho Brahe dans le bref opuscule, De stella nova, qu'il publia en 1573 alors que l'étoile brillait encore : le dogme aristotélicien de l'immutabilité des cieux audelà de l'orbe lunaire en sortait ébranlé. Toutefois, le fait qu'il tint la nouvelle étoile pour un miracle affaiblit sa conclusion ; d'ailleurs, Maestlin, le maître de Kepler, qui arriva aux mêmes conclusions, n'en déduisit pas que ce miracle puisse réfuter la cosmologie d'Aristote. De fait, de ce point de vue, une étoile nouvelle ne met pas plus en cause l'immutabilité des cieux que la résurrection de Lazare ne met en cause la mortalité humaine. Et, surtout, le De stella nova n'aborde pas le problème de l'existence physique des sphères astronomiques (on ne voit pas d'ailleurs en quoi l'apparition d'une étoile nouvelle la mettrait en cause). Il n'en sera pas de même des observations des nombreuses comètes qui suivirent. C'est à Uraniborg que Tycho Brahe découvrit la grande comète qui fit son apparition le 13 novembre 1577, peu après le coucher du soleil, et qu'il observa jusqu'au 26 janvier 1578. Ce 13 novembre, il trouva la comète à 26o 50' de l'étoile la plus brillante de l'Aigle et à 21o 40' de l'étoile la plus basse sur la corne du Capricorne, ce qui lui permit de déterminer sa longitude et sa latitude écliptiques. Il traça ainsi au jour le jour le chemin de la comète parmi les étoiles fixes, notant de plus l'amplitude et l'orientation de la queue. Plus tard, comparant ses relevés avec ceux d'autres observateurs, il montra que cette comète n'était pas un phénomène sublunaire, mais que sa distance à la Terre devait être au moins six fois celle de la Lune. Comme l'observation de la nova de 1572, celle de la comète de 1577 démentait que le cosmos fût immuable, mais ne mettait pas non plus a priori en cause la corporéité des sphères célestes. Il faudra la succession des comètes qui suivirent en 1580, 1582, 1585 et 1590 pour que le problème soit tranché. Tycho Brahe présenta les résultats de ses observations de la comète de 1577 dans un Traité publié en allemand en 1578. Dans ce texte, il évalua la distance de la comète à 230 rayons terrestres au moins, ce qui, si l'on adopte la cosmologie de Ptolémée, la situait dans la sphère de Vénus, mais, précisa-t-il, juste en dessous de cette sphère si l'on adopte un système mixte qu'il était en train de mettre au point et sur lequel nous reviendrons. Il n'en dit pas plus en ce qui concerne les problèmes cosmologiques que pourrait poser le cheminement de l'astre errant à travers les cieux. D'ailleurs, la nova de 1572 l'ayant préparé à l'idée que les cieux ne sont pas immuables, la comète n'avait pas eu à voyager à travers les orbes pour arriver jusqu'à la sphère de Vénus. Il faudra attendre dix ans pour que Tycho Brahe reparle de la comète de 1577 et de celles de 1580, 1582 et 1585, dans son De mundi aetheri recentioribus phaenomenis. Là, il donna clairement congé au système de Ptolémée et à celui de Copernic, et il présenta son propre système dans lequel les planètes accompagnent le Soleil dans sa révolution autour d'une Terre redevenue immobile, et, confirmant la trajectoire circumsolaire de la comète de 1577, il déclara que les orbes solides n'existent pas. Il écrivit : « Je montrerai à la fin de mon ouvrage, principalement à partir du mouvement des comètes, que la machine du ciel n'est pas un corps dur et impénétrable rempli de sphères réelles comme cela a été cru jusqu'à présent par la plupart des gens. Je prouverai que le ciel s'étend dans toutes les directions, parfaitement fluide et simple, sans présenter nulle part le moindre obstacle, les planètes circulant librement dans ce milieu, gouvernées par une loi divine en ignorant la peine et l'entraînement des sphères porteuses. Il sera également établi qu'aucune absurdité dans l'arrangement des cercles célestes ne provient du fait que Mars en opposition est plus proche de la Terre que le Soleil luimême, car de cette façon on n'admet aucune pénétration réelle et impropre des sphères. » Cette réfutation marque une étape importante de la pensée cosmologique. Ce passage des orbes porteurs par lesquels les planètes étaient mues aux orbites « libres » qu'elles parcourent ouvrait la voie aux véritables recherches sur les trajectoires des astres et sur les forces qui entretiennent leurs mouvements, comme il ouvrait la voie aux lois de Kepler et à la mécanique céleste. Complétez votre recherche en consultant : Les corrélats astronomie Brahe Tycho c omète Copernic Nicolas Kepler Johannes Lune - La connaissance de la Lune - L'observation astronomique nova orbite planétologie précession des équinoxes Ptolémée Claude sphère céleste supernova Terre - Données astronomiques - Les mouvements de la Terre Les livres sciences (histoire des) - les orbites elliptiques des planètes, page 4682, volume 9 sciences (histoire des) - l'observatoire de Tycho Brahe, à Uraniborg, page 4683, volume 9 sciences (histoire des) - la sphère armillaire de Tycho Brahe, page 4683, volume 9 Espace et relativité La conception qu'a de l'espace physique une époque donnée est intimement liée à celle que cette même époque a du mouvement. Cela vaut tout autant pour l'espace de la physique aristotélicienne que pour l'espace de la physique galiléenne ou que pour l'espace absolu de Newton, corrélat obligé de sa tentative pour produire une description dynamique du mouvement. On sait qu'Aristote, après avoir distingué le changement « selon la substance » (incluant la corruption et la génération) du changement affectant des substances déjà existantes, établit au sein de ce dernier une subdivision en trois catégories selon que le changement affecte la qualité, la quantité ou le lieu de la substance considérée. Ce dernier changement, transport d'une substance d'un lieu dans un autre, souvent appelé « mouvement local », est certainement ce qui, chez Aristote, se rapproche le plus de l'idée moderne (c'est-à-dire postgaliléenne) de mouvement. Il en diffère cependant sur un point essentiel : le « mouvement local » d'Aristote n'est pas indépendant des choses qu'il affecte et cette non-indépendance est liée à la conception de l'espace dans la physique aristotélicienne. Selon celle-ci, en effet, il existe une correspondance entre les « lieux » et les choses qui s'y trouvent au repos. Le « léger », par exemple, doit être en un certain lieu, c'est-à-dire « en haut », et le mouvement naturel du léger est celui qui l'amène en ce lieu. Certes, un corps léger peut avoir un mouvement vers le bas, mais ce mouvement n'est pas « naturel », il est « violent », et le corps une fois amené en bas, hors de son lieu naturel, n'y reste pas ; en revanche, un corps léger qui a rejoint son lieu naturel, le haut, y reste au repos, et seule la violence peut vaincre l'emprise que son lieu exerce sur lui. On peut donc dire que l'espace aristotélicien est un espace où les divers lieux se distinguent les uns des autres par la nature des corps qui s'y trouvent naturellement au repos. Comme le dit l'historien d'art Erwin Panofsky, l'espace aristotélicien est un espace « pittoresque ». La physique moderne est née avec Galilée qui, en réduisant l'espace physique à celui de la géométrie, en a banni le « pittoresque ». Cette conception de l'espace résulte directement de la volonté affichée par Galilée de réduire le mouvement à ses caractéristiques propres, indépendantes du corps qu'il affecte, et d'en donner une description uniquement en termes d'espace et de temps. Cette disjonction du mouvement et du corps entraîne celle des lieux et des choses. L'espace des choses, l'espace physique, devient uniforme et tous les lieux sont équivalents : un lieu est désormais identifié à un point d'un espace géométrique. Mais cette dissociation va plus loin : elle a pour corollaire la conception relativiste du mouvement. En effet, dans la mesure où un lieu n'est plus habité par un corps qui s'y trouve « naturellement » au repos, l'association lieu naturel-repos est rompue, et le repos perd le caractère absolu qu'il avait chez Aristote. Dans l'espace homogène de la physique galiléenne, où les lieux se valent tous, aucun n'est de façon absolue un lieu de repos. S'installe alors une conception où le mouvement ne s'oppose plus au repos et où ce dernier peut être défini comme un mouvement nul. Dire qu'il n'y a pas de rupture de continuité entre mouvement et repos revient à dire qu'un mouvement peut être annulé ; il suffit pour cela, comme le remarque Galilée, de partager le mouvement en question : les relations spatiales entre l'observateur et la chose dont il partage le mouvement sont alors inchangées au cours du temps, le mouvement de cette chose étant « comme nul ». Galilée prend l'exemple d'un peintre embarqué à bord d'un navire : le crayon du peintre traverse la Méditerranée, mais (à condition que le navire vogue en ligne droite et à vitesse constante) ce mouvement est sans effet : le dessin est le même que si le dessinateur était resté à terre. Telle est l'essence du principe de relativité de Galilée. On le voit, l'idée de relativité est dans la continuité logique de celle d'espace physique uniforme où les lieux sont des points géométriques. Le principe de relativité suppose un espace uniforme et, inversement, postuler un espace uniforme conduit à énoncer un principe de relativité. Mais si, en ôtant son caractère pittoresque à l'espace physique, Galilée rend possible une description cinématique du mouvement en termes d'espace et de temps, il laisse ouverte la question des causes du mouvement : celui-ci est étudié en tant que tel et pas en relation avec les causes qui le produisent. Si l'on cherche à relier le mouvement à ses causes, force est de reconnaître que la description cinématique de Galilée pose un problème : certains mouvements, ceux qui sont « comme nuls », sont en effet « sans cause ». Ainsi, des papillons embarqués à bord d'un navire qui traverse la Méditerranée sont soumis à un mouvement qui n'est pas produit par leurs battements d'ailes. Newton, cinquante ans après Galilée, convaincu de la justesse de la conception galiléenne du mouvement, chercha à en donner une description dynamique (c'est-à-dire en termes de causes) qui soit compatible avec la description cinématique de Galilée. Il s'attacha donc à expliquer pourquoi certains mouvements peuvent être dits sans cause. Cela le conduisit à établir une distinction entre « mouvements vrais ou absolus » et « mouvements relatifs et apparents ». Le mouvement vrai, selon Newton, est produit par une cause bien précise, les « forces imprimées dans les corps pour leur donner le mouvement », et il est « la translation des corps d'un lieu absolu dans un autre lieu absolu ». Les mouvements relatifs, ou apparents, quant à eux, peuvent n'être produits par aucune force imprimée parce qu'ils correspondent à « la translation d'un lieu relatif à un lieu relatif ». Mais, si on les rapporte à l'espace absolu que forment les lieux absolus, ces mouvements ont une cause, la vis insita (ou inertie), force qui réside dans la matière. C'est donc en s'efforçant de donner une version dynamique de la conception galiléenne et cinématique du mouvement que Newton a été conduit à l'idée d'espace absolu. Ce faisant, il introduit une incohérence au sein de son propre système dans la mesure où cet espace absolu implique l'idée de repos absolu, en contradiction avec le principe de relativité de Galilée sur lequel ce système est fondé. C'est là l'une des principales critiques adressées par Ernst Mach à la théorie newtonienne. Einstein, deux cent cinquante ans plus tard, rétablit la physique dans sa pureté relativiste. Désireux de généraliser le principe de relativité de Galilée et de l'étendre à d'autres phénomènes que ceux de mouvement, il fut amené à corriger la théorie de Newton et établit ainsi la véritable cause du mouvement « sans cause », à savoir la courbure de l'espace (- temps) produite par la présence de matière. Preuve supplémentaire, s'il en est, de ce que l'histoire de l'espace physique est aussi celle du principe de relativité. Complétez votre recherche en consultant : Les corrélats Aristote changement cinématique dynamique Einstein Albert Galilée (Galileo Galilei, dit en français) inertie Mach Ernst Newton (Isaac) référentiel relativité temps - La notion physique - Temps et relativité Les livres sciences (histoire des) - Albert Einstein, en 1905, page 4684, volume 9 Géométries non euclidiennes En ébranlant le dogme de la structure euclidienne de l'espace physique, l'élaboration des géométries non euclidiennes conduit à dissocier validité logique et validité physique d'une théorie. Elle rend manifeste l'acte de création intellectuelle que constitue la pensée scientifique comme construction rationnelle de l'esprit humain confronté à l'exigence de symbolisation de ses champs d'expérience. L'espace de la physis d'Aristote n'est pas celui de l'intuition qui nous est contemporaine : il suppose des points privilégiés, comme le centre du monde, des directions privilégiées, affectées de propriétés spécifiques, comme le haut, lieu du « léger », ou le bas, lieu du « grave », et, surtout, deux mondes où les mouvements naturels obéissent à des principes distincts, le monde terrestre du sublunaire et le monde céleste du supralunaire. C'est Newton qui, en imposant le calcul infinitésimal comme instrument de la mathématisation du mouvement, réalise une identification systématique entre l'espace de la physique et celui de la géométrie euclidienne. Il s'agit d'un espace neutre, infini, homogène et isotrope, dont tous les points, ainsi que les trois directions, ont les mêmes propriétés, d'un espace vide, dans lequel des points géométriques, dits matériels, sont affectés d'un coefficient masse, d'un espace absolu, référence unique et universelle qui légitime l'infinie diversité des mesures. Dans le cadre conceptuel des Éléments d'Euclide (IVe siècle avant J.-C.), les propriétés géométriques de cet espace reposent sur plusieurs postulats, dont celui des parallèles, selon lequel « si une droite, tombant sur deux droites, fait des angles intérieurs du même côté plus petit que deux droits, ces droites, prolongées à l'infini, se rencontreront du côté où les angles sont plus petits que deux droits », autrement dit : « Par un point extérieur à une droite ne passe qu'une seule parallèle à cette droite. » Au cours des siècles, la complexité même de ce postulat a inspiré de nombreuses tentatives de démonstration, demeurées vaines, mais qui ont conduit les mathématiciens, d'Omar Khayy?m (vers 1048-vers 1131) à Jean Henri Lambert (1728-1777), à penser qu'un postulat différent permettrait d'obtenir d'autres corps de théorèmes logiquement cohérents, même si nul n'ose alors envisager jusqu'au bout une aussi « répugnante » possibilité. Après le souffle libérateur de la Révolution française, Carl Friedrich Gauss (1777-1855), János Bolyai (1802-1860) et Nikolaï Lobatchevski (1793-1856) élaborèrent, indépendamment les uns des autres, une géométrie dans laquelle la somme des angles d'un triangle est inférieure à 2 droits : par un point extérieur à une droite, on peut mener une infinité de parallèles à cette droite, dans un angle dont la grandeur varie selon la distance du point à la droite. Bernhard Riemann (1826-1866), quelques années plus tard, s'affranchit de l'identification espace physique-espace mathématique en définissant des « multiplicités » (on dit aujourd'hui variété) de dimension n : il adopte un point de vue local pour l'analyse des surfaces courbes, sur lesquelles l'élément infinitésimal de longueur est défini par une forme quadratique générale : ds2 = Avec de telles hypothèses, il peut faire varier la métrique d'un point à l'autre d'un tel espace abstrait, ainsi que sa courbure : la sphère apparaît alors comme un cas particulier d'une multiplicité à courbure positive constante, sur laquelle est définie une géométrie sans parallèles dans un espace fini : la somme des angles d'un triangle y est supérieure à deux droits. L'unité profonde de toutes ces recherches apparaît dans le programme d'Erlangen (1872), où Felix Klein (1849-1925) connecte et restructure plusieurs secteurs essentiels des recherches mathématiques du XIXe siècle : les géométries non euclidiennes, la géométrie projective de von Staudt, issue des travaux sur la perspective, la théorie des groupes (due notamment à Évariste Galois et à Camille Jordan), qu'il applique pour la première fois à des ensembles infinis, la théorie des invariants de la géométrie analytique (de George Cayle Sylvester) et celle des transformations géométriques (de Michel Chasles et Jean Victor Poncelet). Ce programme explicite la possibilité de définir sur un espace une géométrie particulière, qui n'est autre que l'étude des invariants du groupe de transformations choisi pour structurer cet espace. C'est ainsi que la géométrie projective étudie les invariants (colinéarité, birapport, coniques) du groupe des homographies et corrélations ; la géométrie de l'espace arguésien étudie ceux du groupe des affinités (colinéarité, parallélisme) ; la géométrie euclidienne, ceux des similitudes (parallélisme, angles), et la géométrie métrique, ceux des déplacements et retournements (longueurs)... L'axiomatisation des fondements de la géométrie (David Hilbert ; 1899) se présente à son tour comme un langage purement syntaxique, formalisant un système de relations entre des objets dont la nature n'importe plus. Ces bouleversements aboutissent à l'abandon de l'autonomie de la géométrie au profit d'un rapprochement avec l'algèbre, et à de nouvelles généralisations, grâce au développement de la topologie générale et de la géométrie différentielle. La question de la « bonne » représentation de l'espace physique, qui se trouve ainsi dissocié de l'espace mathématique, reste toutefois posée. Alors que la géométrie euclidienne continue de soutenir la mécanique des corps solides, l'espace-temps de la relativité est un espace de dimension 4, structuré par la géométrie de Riemann. Si cet espace reste un espace « plat » en relativité restreinte - espace de Minkowski structuré par la transformation de Lorentz -, il devient un espace courbe en relativité générale, dont la courbure assume le rôle que jouait la gravitation dans la théorie de Newton : elle est déterminée par les densités de masse et d'énergie selon les équations d'Einstein et conduit le mouvement des corps selon ses géodésiques. Complétez votre recherche en consultant : Les corrélats affine (géométrie) algèbre axiome Chasles Michel Éléments d'Euclide Erlangen (programme d') espace-temps Euclide formalisation Galois Évariste Gauss Carl Friedrich géodésique (courbe) géométrie groupe - 3.MATHÉMATIQUES Hilbert David invariant Jordan Camille Khayyam (Omar al-) Klein Felix Lobatchevski Nikolaï Ivanovitch Lorentz Hendrik Antoon Minkowski Hermann modélisation Newton (Isaac) parallèle - 1.MATHÉMATIQUES Poncelet Jean Victor projective (géométrie) Riemann Bernhard topologie transformation géométrique variété - 2.MATHÉMATIQUES vectoriel (espace) Complétez votre recherche en consultant : Les corrélats physique - La révolution galiléenne et la naissance de la physique classique Introduction physique - La révolution galiléenne et la naissance de la physique classique L'apogée de la physique classique : électromagnétisme et thermodynamique La matière L'opposition entre continuité et discontinuité, entre atomisme et homogénéité de la matière est l'un des plus vieux débats de la philosophie naturelle. Ce fut pendant de nombreux siècles, des Grecs à l'aube du XIXe siècle, un débat plus métaphysique que scientifique. C'est principalement aux chimistes que l'on doit les bases de l'atomisme moderne, mais il ne faut pas oublier que la découverte de l'outil mathématique, qui a permis de faire le pont entre discontinu et continu, c'est-à-dire le calcul infinitésimal, fut un pas décisif dans la clarification du débat. Une preuve supplémentaire du caractère discontinu de la matière vint de la thermodynamique, lorsque fut établie la nature de la chaleur comme mouvement de particules. Une fois connues la taille, la masse et même la dimension des atomes, il ne restait plus qu'à les voir, ce qui fut une des grandes aventures du XXe siècle. Le calcul infinitésimal Jusqu'au XVIIe siècle, la mécanique est essentiellement statique, fondée sur la théorie de l'équilibre due à Archimède. Conceptuellement, la Physis d'Aristote, qui définit le temps comme le nombre du mouvement et l'espace comme le lieu du mouvement, ne permet pas de penser la dynamique dans les termes de la mécanique classique, qu'inaugurent les Principes mathématiques de la philosophie naturelle de Newton : le mouvement y est une relation entre un espace et un temps conçus comme entités autonomes. Les trois lois fondamentales de cette dynamique - loi d'inertie, définition de la force comme cause du « changement de vitesse », égalité de l'action et de la réaction - s'appuient sur la mathématisation du mouvement, rendue possible par le développement de l'algèbre et l'élaboration du calcul infinitésimal, qui font basculer la mécanique dans le champ des mathématiques appliquées. Là où la géométrie euclidienne démontrait les propriétés de figures fixes, l'écriture algébrique symbolise des relations entre grandeurs variables. La crise de l'irrationalité sur laquelle avaient buté les pythagoriciens, ainsi que les difficultés logiques soulevées par la conceptualisation de l'infini et du mouvement, conduisent à la séparation entre le champ du démonstratif et celui de la représentation numérique. En tant que science démonstrative, la mathématique grecque, qui s'impose avec les Éléments d'Euclide (vers 300 avant J.-C.), est avant tout une géométrie. C'est à partir des longueurs, visualisées géométriquement, que sont définies l'addition et la multiplication (les termes « rectangle », « carré » ou « cube » ont longtemps désigné des produits). La comparaison des grandeurs est régie par la théorie des proportions, qui élude la question de leur nature. Grâce à cette théorie de la mesure, Euclide et surtout Archimède peuvent déterminer l'aire limitée par une courbe dans des cas particuliers, grâce à une méthode de double raisonnement par l'absurde qui est démonstrative sans être opératoire, puisqu'elle suppose connu le résultat à établir. Cette méthode parfaitement rigoureuse, dont l'absence de symbolisme opératoire rend la lecture quelque peu fastidieuse, consiste pour l'essentiel à « épuiser » la surface étudiée par une suite de polygones emboîtés qui lui sont inscrits, puis circonscrits (c'est pourquoi elle sera qualifiée au XVIIe siècle de « méthode d'exhaustion »), et à démontrer qu'il existe un polygone inscrit dont l'aire est plus grande que l'aire connue et un polygone circonscrit dont l'aire est plus petite que l'aire connue, ce qui est impossible. La proposition 1 du Livre X, qui permet d'obtenir, en un nombre fini d'étapes, une grandeur plus petite que toute grandeur donnée, permet d'exclure tout recours à l'infini de ces raisonnements, où ne sont comparées que des grandeurs archimédiennes. L'algèbre comme mode de résolution des équations s'imposa beaucoup plus tard, avec les travaux de Harriott (1560-1620), Girard (1595-1632), François Viète (15401603) et Descartes (1596-1650). Malgré les ressemblances qu'il est possible de constater entre les formules de résolution des équations du 1er et du 2d degré, et les énoncés des scribes babyloniens, considérer ceux-ci comme des algébristes constituerait un anachronisme et reviendrait à confondre méthode démonstrative et règle de procédure, ou encore pensée conceptuelle et analyse de tables numériques donnant des résultats dans certains cas particuliers. Comme l'évoquent les termes d'« algorithme » (issu de la déformation latine du nom d'al-Kh?razmi, mathématicien arabe du IXe siècle) et d'« algèbre » (de l'arabe al-djabr, désignant une des méthodes de résolution données par al-Kh?razmi), les mathématiciens arabes sont les premiers fondateurs d'une algèbre rhétorique, où l'on ose nommer l'inconnue, la « chose » à découvrir, et en déduire une classification des différents types d'équations à résoudre. L'algèbre littérale de la Renaissance représente la synthèse de trois types indissociables d'améliorations techniques, qui ne s'unifièrent que progressivement : une technique opératoire, qui porte sur les quantités inconnues ou sur les indéterminées, le maniement de formules numériques, qui utilise surtout des radicaux, et l'élaboration de systèmes de notations. Dès lors que Copernic a délogé la Terre du centre du monde, Kepler, brisé la croyance en une perfection du mouvement circulaire uniforme, et Galilée, abordé la cinématique en établissant que la chute des graves s'effectue selon un mouvement rectiligne uniformément accéléré, l'élaboration du calcul infinitésimal au XVIIe siècle va de pair avec la recherche des causes du mouvement et de ses changements, recherche d'où est absent le souci d'un fondement ontologique. Newton, sous la forme d'un calcul des fluxions (il note y et appelle « fluxion » la dérivée d'une quantité y dite « fluente »), et Leibniz, sous la forme d'un calcul différentiel (il note dy et appelle « différentielle » la dérivée d'une quantité variable y), font aboutir les recherches préalables de Descartes, Fermat, Roberval, Pascal en France, de Cavalieri et Torricelli en Italie, de Wallis et Barrow en Angleterre, en quête des méthodes heuristiques qui sont tellement absentes des travaux grecs. En reconnaissant l'intégration et la différenciation comme opérations réciproques l'une de l'autre, Newton et Leibniz fondent une discipline nouvelle, un calcul de l'infini, qui s'appuie sur la détermination de n.x n-1 comme dérivée de x n, et qui oeuvre par intégration et différenciation d'une fonction quelconque à partir de son développement en série. Les fonctions y sont systématiquement traitées comme des polynômes à une ou plusieurs variables, ayant un nombre fini ou infini de termes. Jusqu'au tournant du XIXe siècle, ce traitement algébrique des problèmes d'intégration et de dérivation semble pouvoir permettre d'éviter tout recours à la notion de limite, définie par Newton, mais fort contestée quant à ses fondements. Cette conviction sera battue en brèche par les travaux d'Augustin Cauchy (1789-1857) qui fondent résolument l'analyse, en tant que discipline distincte de l'algèbre, sur la définition de la notion inévitable de limite. Seule cette notion permettra d'aborder, de façon générale, le problème de la continuité ou de la discontinuité des grandeurs, que Newton et Leibniz n'avaient pu qu'éviter, le premier en faisant dépendre toutes ses variables de la seule variation d'un temps dont le flux est supposé continu, le second en affirmant que la différentielle élémentaire dx est soumise aux mêmes lois opératoires que les différences finies. En tant que méthodologie, le calcul infinitésimal permet d'unifier la résolution de problèmes jusqu'alors traités indépendamment les uns des autres : trajectoire d'un mobile connaissant sa « vitesse » ou son « accélération » ; tangente ou normale à une courbe ; problèmes de quadrature, de cubature ou de rectification d'une courbe (détermination d'une aire, d'un volume ou d'une longueur), qui relèvent désormais de l'intégration des fonctions. Dès lors, le développement de la mécanique va de pair avec celui de l'analyse mathématique, via l'élaboration de la théorie des équations différentielles et des équations aux dérivées partielles. Abordées au XVIIIe siècle sur des cas particuliers (oscillation du pendule, vibration d'une corde) et selon des méthodes essentiellement algébriques (substitution de fonctions, séparation des variables, facteur intégrant, variation des constantes), les recherches sur leur résolution traduisent la mathématisation de nouveaux problèmes physiques, d'abord conçus sur le modèle de l'attraction newtonienne, notamment en hydrodynamique, électricité, magnétisme, avant d'évoluer, par le biais de la théorie du potentiel, vers la conceptualisation des forces engendrées par des champs. Cette étude systématique des équations différentielles conduit à la généralisation des méthodes de résolution et à leur structuration tant analytique (théorèmes d'existence, théorie analytique) qu'algébrique (classification). Au XXe siècle, l'étude des structures algébriques abstraites intervient en physique dans les domaines les plus nouveaux. C'est ainsi que la relativité générale apparaît comme une nouvelle cinématique utilisant la géométrie riemannienne, de même que la mécanique quantique met en oeuvre les méthodes opérationnelles issues des travaux de George Boole dans la résolution des équations différentielles, les calculs matriciel et tensoriel ou la multiplication non commutative des algèbres d'Arthur Cayley. Complétez votre recherche en consultant : Les corrélats accélération aire algèbre algorithme analyse - 2.MATHÉMATIQUES Archimède Aristote Boole George calcul - 1.MATHÉMATIQUES Cauchy (Augustin Louis, baron) Cavalieri Bonaventura Cayley Arthur champ - 2.PHYSIQUE cinématique continue (fonction) dérivée Descartes René différentielle (équation) dynamique - 1.PHYSIQUE équation équilibre - 3.MÉCANIQUE Euclide exhaustion (raisonnement par) Fermat (Pierre de) fluxions (méthode des) fonction - 2.MATHÉMATIQUES force inertie infinitésimal (calcul) intégrale Kharazmi (al-) Leibniz Gottfried Wilhelm limite mécanique - 1.PHYSIQUE mouvement [1] - 2.MATHÉMATIQUES Newton (Isaac) partielle (dérivée) Pascal Blaise polynôme (fonction) potentiel - 1.PHYSIQUE réaction - 2.MÉCANIQUE Roberval (Gilles Personier de) structure algébrique Torricelli Evangelista Viète François Les livres sciences (histoire des) - manuscrit d'al-Kharazmi (1342), page 4686, volume 9 L'atome des chimistes, objet de mesures L'atome de Démocrite et de Lucrèce, concept philosophique plutôt qu'objet physique, est resté une ingénieuse vue de l'esprit pendant plusieurs siècles. Il ne change de nature et ne devient objet d'expérience qu'à la fin du XVIe siècle, au moment où s'impose plus ou moins confusément l'idée que la matière et ses transformations peuvent relever d'une étude quantitative, et où émerge la notion de preuve soumise aux exigences de la pratique. Il est évidemment difficile de résumer toute l'histoire de l'atomisme moderne et de recenser toutes les découvertes de la chimie minérale et organique, de l'électrochimie et d'une partie importante de la physique, qui ont finalement conféré une réalité scientifique à « l'objet » de spéculations multiples et souvent contradictoires. On peut cependant essayer de trouver un fil d'Ariane, même fragile, afin de se repérer dans ce tortueux parcours. Les premières données expérimentales furent celles qui introduisirent, dans l'étude de la matière, les notions quantitatives concernant, plus ou moins confusément, celle de pureté et, par conséquent, d'élément. Distinguer un mélange de ses constituants, constater la transformation totale d'un produit en un autre, mesurer des changements reproductibles de poids ou de volume, c'est déjà reconnaître l'existence du défini, c'està-dire du discontinu. Un médecin longtemps méconnu, Jean Rey (vers 1580-vers 1645), avait observé que la calcination à l'air du plomb et de l'étain s'accompagne d'une nette augmentation de poids. L'idée de phlogistique, apparue au milieu du XVIIIe siècle, se réfère au poids négatif de cette entité. Elle prétendait rendre compte d'expériences comme celle de Rey : un métal est en effet formé de sa chaux (son oxyde, dirait-on aujourd'hui) et de phlogistique, qu'il peut perdre par chauffage (en augmentant son poids). Mais cette théorie n'était pas la bonne, car il s'agissait d'une tentative d'explication des transformations chimiques dont la réfutation allait précisément permettre d'aboutir aux idées correctes sur la question. La découverte et la caractérisation de l'hydrogène en 1765 par Henry Cavendish (1731-1810), qui en détermina la densité, et de l'oxygène par Joseph Priestley (17331804) et par Carl Wilhelm Scheele (1742-1786), tous deux en 1774, constituèrent des étapes décisives. Les recherches de Cavendish et surtout celles d'Antoine Laurent de Lavoisier (1743-1794) confirmèrent que la combustion de l'hydrogène fournit de l'eau et que, inversement, le fer chauffé au rouge peut décomposer l'eau en ses deux constituants. Au début du XIXe siècle, les chimistes apprirent définitivement à accorder une attention particulière aux poids et aux volumes de la matière qu'ils manipulaient. Les grandes lois quantitatives de la chimie purent alors être promulguées. La loi des proportions définies affirme que les éléments constitutifs d'une substance pure y sont présents en quantités fixes et invariables. Elle fut formulée par Joseph Louis Proust (1754-1826), qui eut à la défendre contre les attaques aussi courtoises qu'obstinées de Claude Berthollet (1748-1822). L'Anglais John Dalton (1766-1844) établit par ailleurs que, si les combinaisons chimiques mettent en jeu des poids de matière régulièrement définis, c'est qu'en fait elles résultent de l'addition de particules élémentaires, ou atomes, en nombre bien déterminé. Ces atomes insécables diffèrent par leur masse quand on passe d'un élément à un autre. Lorsque deux éléments différents s'unissent pour former une combinaison définie, Dalton admet que la nouvelle particule formée ne contient qu'un seul atome de chaque élément. L'exemple de l'ammoniac, l'unique combinaison qu'il connaît de l'azote et de l'hydrogène, illustre bien sa démarche : Dalton l'écrit simplement NH : 1 g d'hydrogène (c'est son atome-unité) se combine avec 4,66 g d'azote (notre azote N = 14 divisé par 3). Ainsi, l'eau résulte de l'union de 8 g d'oxygène et de 1 g d'hydrogène. Quand deux éléments peuvent donner deux combinaisons différentes, comme le carbone avec l'oxygène (pour donner notre CO et notre CO2, par exemple), les quantités d'oxygène s'unissant avec un même poids de carbone dans les deux combinaisons sont dans un rapport simple. Cette loi des proportions multiples conduisit Dalton à proposer, dès 1808, un premier tableau encore très approximatif des poids relatifs d'un certain nombre d'atomes. À côté de ces lois dont la déduction s'établit à partir de considérations pondérales, celle de Louis Joseph Gay-Lussac (1778-1850) met en évidence des relations entre des volumes gazeux. Énoncée en 1808, elle nous enseigne que les combinaisons entre gaz ou vapeurs s'effectuent suivant des rapports simples. Un volume d'oxygène se combine avec deux volumes d'hydrogène pour donner deux volumes de vapeur d'eau ; un volume d'azote se combine à trois volumes d'hydrogène pour donner deux volumes d'ammoniac. Ces observations obligent évidemment à réviser les « proportions relatives » trop simples acceptées par Dalton. L'hypothèse émise en 1811 par le physicien italien Amedeo Avogadro (1776-1856), retrouvée et répétée en 1814 par André Marie Ampère (1775-1836), est présentée par ses deux auteurs comme la conséquence directe des découvertes de Gay-Lussac. Cette hypothèse admet que « les gaz, dans des circonstances semblables, sont composés de molécules ou d'atomes placés à la même distance, ce qui revient à dire qu'ils en renferment le même nombre sous le même volume ». Elle pouvait, aux yeux de JeanBaptiste Dumas (1800-1884), donner un accès direct aux poids relatifs des éléments connus : leurs poids atomiques auraient dû pouvoir se déduire de leurs densités à l'état de vapeur. En fait, les choses étaient moins simples et leur interprétation devait aboutir à la grande querelle entre atomistes et équivalentistes, qui dura en France plus de cinquante ans. Les mesures envisagées par Jean-Baptiste Dumas (1800-1884) allaient en effet se heurter à deux graves difficultés. La première est liée à la confusion qui régnait encore vers 1830 sur les notions d'atomes et de molécules. Ces dernières, pour les corps simples, sont généralement constituées par l'association de deux atomes. Mais il existe quelques cas (le soufre en est un) où, à l'état de vapeur, certaines molécules en comportent plus et d'autres moins. Ces exceptions - ces densités de vapeurs anormales - obsédèrent Dumas, qui ne vit qu'elles. La seconde difficulté tenait à ce que certaines molécules, comme celle du chlorure d'ammonium, sont capables, à haute température, de se dissocier en deux autres molécules. Sur la base d'apparentes contradictions entre les données expérimentales concernant les poids et celles concernant les volumes, Henri Sainte-Claire Deville (1818-1881), l'inventeur de la dissociation, fut de ceux qui, après Dumas et, plus tard, avec Marcellin Berthelot (18271907) refusèrent « l'ingénieuse métaphysique » qui postulait l'existence des atomes. Ces antiatomistes s'en tenaient aux équivalents qui, selon eux, traduisaient sans aucune hypothèse des rapports pondéraux entre les divers éléments. Les lumineuses explications de Marc-Antoine Gaudin (1804-1880), les progrès de la chimie organique dus à des hommes comme Charles Gerhardt (1816-1856), une meilleure compréhension de l'hypothèse d'Avogadro grâce, en particulier, à l'Italien Stanislao Cannizzaro (1826-1910) finirent (non sans mal, surtout en France) par imposer les poids atomiques qui sont les nôtres. Le carbone « pèse » bien 12, l'oxygène 16, et non pas 6 et 8 respectivement, comme le voulaient les équivalentistes. Seule l'adoption de ces poids atomiques corrects put permettre à Dmitri Ivanovitch Mendeleïev (18341907) d'établir, en 1869, sa fameuse classification périodique des éléments chimiques. À la fin du XIXe siècle, « l'hypothèse atomique » avait enfin largement fait ses preuves, son efficacité opérationnelle et ses pouvoirs de prévision, y compris dans la pratique (avec l'industrie des colorants, entre autres), étant démontrés. Les physiciens, quant à eux, donnèrent alors une réalité mesurable à cet « objet » rêvé depuis l'Antiquité. Parmi leurs contributions, aussi variées qu'importantes, nous n'en retiendrons arbitrairement que deux. Les atomes et les molécules, électriquement chargés par ionisation et projetés à travers un champ magnétique, voient, selon leur masse, leur parcours plus ou moins dévié. Construit d'après ce principe, le spectrographe de masse inventé par l'Anglais Francis William Aston (1877-1945) permet de mesurer directement des grandeurs que les déductions des chimistes avaient eu tant de mal à atteindre. Cet instrument, par conséquent, permettait de démontrer qu'un élément chimique peut être lui-même constitué par plusieurs espèces jusqu'ici confondues et appelées isotopes. Une seconde méthode physique permit de mesurer les paramètres des atomes et des molécules les plus compliquées, littéralement de les « voir » au prix de calculs désormais très accessibles. Cette méthode repose sur la diffraction des rayons X, découverte en 1912 par l'Allemand Max von Laue (1879-1960). Si on irradie un cristal d'une substance quelconque par un faisceau de rayons X, ceux-ci rebondissent, pour ainsi dire, sur les particules qui lui font obstacle et voient leur trajectoire modifiée. L'enregistrement des perturbations produites permet de reconstituer l'arrangement des atomes rencontrés par le rayonnement. L'analyse d'une architecture moléculaire rendue possible par cette méthode a culminé, par exemple, avec la reconstitution de l'enchaînement de 574 amino-acides qui constituent l'hémoglobine (Max Perutz, 1960). La connaissance des atomes que les chimistes ont acquise presque à tâtons au cours de ces deux derniers siècles relève sans doute désormais de la compétence des physiciens. Mais les chimistes d'aujourd'hui continuent à s'intéresser plus que jamais à la réactivité, aux conditions et aux particules qui, en dernier ressort, la régissent. Ils ont appris que des électrons dépendent la formation et la rupture des liaisons entre atomes constitutifs des molécules. Et, sur ce sujet, il leur reste comme sujet d'étude l'inépuisable diversité de la matière. Complétez votre recherche en consultant : Les corrélats ammoniac Ampère André Marie Aston Francis William atome - Un long parcours scientifique atomisme Avogadro (Amadeo di Quaregna e Ceretto, comte) a zote Berthelot Marcellin Berthollet (Claude Louis, comte de) Cavendish Henry chimie - Histoire de la chimie classification périodique des éléments cristal - 1.GÉOLOGIE Dalton John Démocrite diffraction Dumas Jean-Baptiste eau - Introduction élément Gay-Lussac Louis Joseph g az hémoglobine hydrogène isotope Laue (Max von) Lavoisier (Antoine Laurent de) liaison chimique Lucrèce Mendeleïev Dmitri Ivanovitch mole moléculaire molécule oxygène phlogistique Priestley Joseph Proust Joseph Louis rayons X réaction - 1.CHIMIE Sainte-Claire-Deville Henri spectromètre de masse Les livres sciences (histoire des) - Lavoisier et Berthollet (1785), page 4687, volume 9 sciences (histoire des) - table des éléments, de John Dalton (1803), page 4687, volume 9 sciences (histoire des) - diagramme de Laue, page 4688, volume 9 Du calorique au kWh La nature exacte de ce que l'on entendait par « chaleur » fut l'objet, pendant plusieurs siècles, de sérieux débats entre les tenants d'une théorie mécaniste, dans laquelle la chaleur était une forme du mouvement, et ceux d'un modèle où la chaleur était une substance matérielle susceptible de s'écouler d'un corps à un autre. Il est remarquable qu'en l'absence d'expériences décisives les deux modèles aient cohabité aisément et que Lavoisier ait pu dire, en 1786, qu'ils étaient la plupart du temps interchangeables : presque toutes les expériences mettant en jeu des échanges thermiques, en particulier celles qui faisaient intervenir des réactions chimiques, pouvaient s'interpréter en termes d'échanges de type matériel. Seules les expériences reliées au phénomène de production de chaleur par frottement échappaient à cette description. Ce furent elles qui firent peu à peu prévaloir la théorie mécaniste au cours de la première moitié du XIXe siècle. Une des conséquences importantes du modèle matériel fut que l'on admit que la chaleur se conservait au cours de ses différents transferts ; on peut s'étonner que cette conception erronée n'ait en rien entravé les premiers développements de la thermodynamique, en particulier l'énoncé par Sadi Carnot (1796-1832) de ce qui s'appela plus tard le deuxième principe de la thermodynamique. Dans ses Réflexions sur la puissance motrice du feu, publiées à compte d'auteur et de façon confidentielle en 1824, Carnot établit, par des raisonnements simples et une remarquable économie d'hypothèses, l'impossibilité de faire fonctionner une machine thermique à l'aide d'une seule source de chaleur. Il donne l'expression correcte du rendement maximal d'une machine en fonction des températures entre lesquelles elle transfère de la chaleur, tout en supposant que la quantité de chaleur empruntée à la source chaude est égale à celle cédée à la source froide. Sachant que le rendement d'une machine thermique se calcule uniquement en fonction de la chaleur empruntée à la source chaude, on comprend que cette erreur ait pu n'avoir aucune conséquence sur la validité des résultats obtenus. Il ne fait aucun doute que, dans les années qui suivirent la parution des Réflexions, Carnot comprit très clairement le principe de la transformation de la chaleur en travail, puisqu'il donna même dans des notes, publiées seulement en 1878 par son frère, une estimation très proche de la valeur acceptée aujourd'hui pour l'équivalence entre travail et chaleur. Les obstacles conceptuels à franchir pour réussir à admettre la conservation de l'énergie étaient considérables dans les années 1840 : les échanges réciproques entre énergie potentielle gravitationnelle et énergie cinétique étaient bien connus, mais l'idée qu'on avait des particules dont était faite la matière, en particulier les gaz, de leurs dimensions, de leurs masses et surtout de leurs interactions ne permettait pas de les imaginer comme des objets matériels soumis aux mêmes lois que des objets macroscopiques. Au travail de pionnier qui fut nécessaire pour franchir ces obstacles sont attachés les noms de Julius Robert von Mayer (1814-1878), James Prescott Joule (1818-1889) et Hermann von Helmholtz (1821-1894). Grâce à eux, en 1850, il était fermement établi, sur une base expérimentale, mais aussi conceptuelle, que non seulement la chaleur constituait une forme d'énergie susceptible d'être échangée, transformée en d'autres formes d'énergie, mais aussi que, lors d'un échange, la quantité d'énergie cédée par un des systèmes se trouvait intégralement transférée dans l'autre, qu'elle ait ou non changé de nature. L'équivalence entre les unités d'énergie et les unités de chaleur était connue grâce à toute une série d'expériences très différentes et concordantes. L'étape suivante consista à comprendre quelle était la nature exacte de mouvement représentée par la chaleur au sein de la matière. Après quelques balbutiements, la réponse satisfaisante fut donnée entre 1857 et 1860 par Rudolph Clausius (18221888) et James Clerk Maxwell (1831-1879) ; tous deux contribuèrent à fonder la « théorie cinétique des gaz » qui décrit le mouvement des molécules d'un gaz en équilibre : les molécules d'un tel gaz sont animées de mouvements incessants constamment interrompus par des collisions. Chaque molécule emporte avec elle de l'énergie cinétique, mais aussi de l'énergie de vibration et de rotation. La température du gaz est une mesure de ce contenu énergétique et sa pression sur les parois du récipient qui le contient résulte des collisions des molécules sur ces parois. Maxwell montra que cette distribution d'énergie entre les molécules est de nature statistique et il donna la loi de distribution des vitesses autour de leur valeur moyenne. Ainsi se trouvaient fondées sur des bases inébranlables la nature mécanique de la chaleur et la conservation de l'énergie. Avant d'aborder la théorie cinétique, Clausius avait accompli un très important travail de synthèse sur les lois de la thermodynamique auxquelles il avait donné leur formulation mathématique définitive. Il avait, en particulier, introduit le concept d'entropie et montré que le principe de Carnot se traduisait par une augmentation constante de l'entropie d'un système isolé. Dès lors que la chaleur apparaissait comme une forme de l'énergie mécanique, une telle situation posait un problème singulier. En effet, toutes les lois de la mécanique classique sont indépendantes du sens du temps. Ainsi, si l'on filme la collision de deux boules de billard, aucun observateur, en voyant le film projeté soit dans le sens normal, soit en remontant le temps, ne pourrait reconnaître quel est le bon sens. Comment une suite de collisions de molécules dans un gaz pouvait-elle aboutir inexorablement à l'augmentation de l'entropie, ce qui impliquait un seul sens possible pour l'écoulement du temps ? Pour prendre un exemple courant, pourquoi de l'eau chaude et de l'eau froide se mélangent-elles pour donner de l'eau tiède et jamais le contraire ? La réponse à cette question fut donnée par le physicien autrichien Ludwig Boltzmann (1844-1906), qui la mit en relation avec le caractère statistique que revêt la distribution des positions et des vitesses des molécules d'un gaz. Il montra en particulier que l'entropie (S), définie de façon formelle et macroscopique par Clausius, pouvait s'exprimer très simplement en fonction de la probabilité (W) qu'a un système d'être dans l'état qu'il occupe, par la célèbre formule qui lui sert d'épitaphe au cimetière de Vienne : S = k log W. En démontrant que tout système isolé évolue spontanément vers son état le plus probable, lequel, pour un gaz, correspond à la distribution de vitesses de Maxwell, il prouvait la loi de croissance de l'entropie. Bien des points obscurs subsistaient encore, dont l'élucidation ne devait être faite qu'au XXe siècle avec les modèles issus de la mécanique quantique ; cependant, durant la cinquantaine d'années qui s'étend entre les Réflexions de Carnot en 1824 et l'article de Boltzmann qui, en 1877, fonde la mécanique statistique, la construction d'une théorie cohérente de la chaleur fut le résultat d'un effort constant et régulier. Il est remarquable que, durant le même laps de temps, la théorie de l'électromagnétisme se construisait, d'OErstedt à Maxwell, au même rythme et avec de nombreux acteurs communs. Complétez votre recherche en consultant : Les corrélats Boltzmann Ludwig Carnot Nicolas Léonard Sadi chaleur choc - 1.PHYSIQUE Clausius Rudolf énergie - Les différentes formes de l'énergie entropie équivalence g az Helmholtz (Hermann von) Joule James Prescott Lavoisier (Antoine Laurent de) machine machine - Les machines thermiques Maxwell James Clerk Mayer (Julius Robert von) temps - La notion physique - La flèche du temps thermodynamique travail - 1.PHYSIQUE Les livres sciences (histoire des) - une épitaphe particulière, page 4688, volume 9 Complétez votre recherche en consultant : Les corrélats physique - La révolution galiléenne et la naissance de la physique classique L'apogée de la physique classique : électromagnétisme et thermodynamique Le temps Le concept de temps est ambigu, car il recouvre, dans notre langage, au moins deux acceptions voisines, mais qui s'excluent l'une l'autre : l'instant et la durée. L'instant - l'instant présent - apparaît comme un point singulier entre le passé et l'avenir. Construire la durée à partir d'une succession infinie d'instants infiniment courts est un exercice difficile, qui demande un outillage mathématique qui fit longtemps défaut. Il n'est pas étonnant que Zénon ait buté sur cet obstacle en énonçant les paradoxes auxquels son nom est attaché pour toujours, ce que raconte le premier texte. La durée est une donnée relativement immédiate, et seule sa mesure a posé des problèmes, qui furent résolus peu à peu, avant d'aboutir aux impressionnantes performances de nos horloges atomiques (voir le dossier temps). La seule étape difficile à franchir fut celle d'appréhender, puis d'estimer la durée réelle des temps géologiques, d'autant plus que de sérieux diktats philosophiques et religieux interdisaient toute réflexion sur ce sujet. Le second texte montre par quelles voies cet obstacle fut levé et comment le « temps profond » de l'histoire terrestre s'imposa. La voie était ouverte pour estimer d'autres temps, celui de l'Univers par exemple. Complétez votre recherche en consultant : Les corrélats temps Les paradoxes de Zénon Dans les cités ioniennes du VIIe siècle avant J.-C., la philosophie grecque naissante tenta d'élaborer un savoir de type rationnel, qui cherchait à exprimer logiquement et dans les mêmes termes ce qui constitue la permanence et le dynamisme de la nature. Elle le fit en isolant comme causes des entités premières (l'eau chez Thalès, l'air chez Anaximène, les quatre éléments chez Empédocle) conçues comme physiques et animées, vivantes en quelque sorte, parce qu'elles symbolisaient l'origine du monde dans ce qu'il a de structuré et de changeant à la fois. Cette philosophie constitua non pas un matérialisme, mais un hylozoïsme (doctrine attribuant à la matière une vie propre) antérieur à l'idée d'une séparation entre matière et esprit, ou entre mobile et moteur, et auquel on peut rattacher également l'atomisme de Leucippe (vers 460-370 avant J.-C.) et de Démocrite (vers 460-vers 370 avant J.-C.). L'idéalisme absolu de la philosophie de l'être propre aux Éléates marque la rupture avec ce réalisme ionien et rend possible, alors même qu'elle tente de l'interdire, la conceptualisation du mouvement. Pour cette école, seule la pensée est au-delà de l'expérience confuse des sens ; elle seule peut atteindre la vérité parfaite et immuable qui caractérise l'être éléatique, dont la nature est homogène, immuable, donc continue, indivisible et sans mouvement, c'est-à-dire sans changement, puisque sans devenir. Tant que les éléments premiers sont considérés comme cause essentielle de l'existence et de l'ordonnancement de l'Univers tout entier, leur nature doit concentrer tous les attributs de l'être, et il est, par conséquent, conceptuellement impossible de les envisager comme des entités divisibles. La formulation des quatre célèbres apories de Zénon d'Élée (vers 495-vers 430 avant J.-C.) s'inscrit dans cette focalisation des interrogations autour des concepts d'espace et de temps, de continu et d'indivisible. De tels arguments ne constituent pas une critique du continu lui-même, car c'est un des prédicats qui, selon Parménide, font partie de l'essence de l'être, mais une critique de la composition du continu, conçue soit comme formée de parties divisibles à l'infini, soit à partir d'indivisibles. Si paradoxe il y a, c'est que la pensée de Zénon envisage le mouvement comme un déplacement qui s'effectue à la fois dans l'espace et le temps sans qu'il parvienne à en séparer les deux termes, pas plus qu'il ne peut distinguer entre le métrique et le topologique. Zénon s'appuie sur le principe de contradiction et sur l'idée de divisibilité à l'infini pour prouver que, tant dans l'hypothèse d'une composition en éléments finis que dans celle d'une composition infinie, le mouvement est, non pas impossible, puisqu'il sait en constater l'existence, mais impensable puisqu'il est impossible de développer quelque argumentation cohérente que ce soit à son propos. Dans les deux premiers paradoxes, Zénon réfute l'hypothèse dite continuiste d'une possible division à l'infini de l'espace et du temps, qui rend impossible l'accomplissement du mouvement envisagé. En relation avec cette hypothèse, Zénon, dans le paradoxe dit « de la dichotomie », affirme l'impossibilité de parcourir un segment, puisqu'il faut déjà en parcourir la moitié, et, avant, la moitié de la moitié, et ainsi de suite jusqu'à l'infini. Dans le paradoxe plus connu d'Achille et de la tortue, Zénon affirme, pour la même raison, que le coureur le plus rapide, poursuivant le plus lent des animaux, n'arrivera jamais à l'atteindre, puisqu'il doit passer, dans le même temps, par tous les points où est déjà passée la tortue. Ces deux premiers paradoxes diffèrent seulement en ce que le second présente sous une forme dramatique, et pour un rapport de division quelconque, la raison exposée dans l'autre. Les deux derniers arguments sont, eux aussi, parallèles. Tous deux supposent cette fois la composition d'indivisibles d'instants du temps et de points de l'espace. Zénon y réfute l'hypothèse des indivisibles. Avec une telle hypothèse, il affirme, dans le paradoxe dit de la flèche, que la flèche qui occupe à un « instant » donné une « position » donnée doit être à tout instant immobile. Il ne conçoit pas ici l'idée de vitesse instantanée, dès lors que, pour lui comme plus tard pour Aristote, le mouvement est premier par rapport à l'espace et au temps, et que les seuls rapports de grandeurs qui sont mathématiquement envisagés ne peuvent l'être que pour des grandeurs homogènes. Dans le dernier paradoxe, dit du stade, Zénon compare les mouvements de deux mobiles en sens contraire à partir d'une position centrale, pour un même « instant » du temps, et conclut que, pour l'observateur resté immobile, deux indivisibles d'espace (un dans chaque sens) ont été parcourus pendant un indivisible de temps, ce qui démontre que celui-ci peut à nouveau être divisé, donc qu'il n'est pas un indivisible. La notion de mouvement relatif n'est ici pas dégagée, l'idée de repérage, absente. Tant que la séparation entre l'être et le monde pose problème, seul le point de vue de l'observateur peut être pris en considération, et il l'est implicitement comme un absolu. Cette exclusion radicale de toute pensée sur le mouvement conduisit les philosophes grecs postérieurs à Zénon à distinguer deux notions qui étaient jusque-là pensées ensemble : celle de principe et celle de génération. En outre, dans le domaine du raisonnement, la méthode établie par Zénon, et les conclusions qu'il en tira, interdit toute forme de discours pouvant conduire à de tels paradoxes, à commencer bien évidemment par le recours à l'infini. Après les pythagoriciens et les Éléates, le dicible, le logos, se conjugue expressément avec le fini. C'est en s'appuyant sur une distinction radicale entre l'être en acte et l'être en puissance, et sur la continuité des transitions de l'un à l'autre, définie mathématiquement comme ce qui est divisible en parties toujours divisibles, qu'Aristote élabora la première théorisation qui fasse du changement autre chose qu'une affection superficielle ou un écoulement irrationnel. D'un point de vue strictement mathématique, c'est la notion de série infinie convergente qui permit, quelque vingt siècles plus tard, de formuler en toute rigueur comment une somme infinie de quantités finies peut produire un résultat fini. Entre ces deux modes de conceptualisation, il aura fallu l'élaboration de l'algèbre et du calcul infinitésimal, et l'apparition d'une nouvelle physique, celle de Newton. Complétez votre recherche en consultant : Les corrélats Achille atomisme changement Démocrite éléates Empédocle Leucippe logos paradoxe Parménide d'Élée temps Thalès Zénon d'Élée Les livres sciences (histoire des) - Achille et la tortue, page 4689, volume 9 La naissance du temps profond Il n'y avait pas, au milieu du XVIIIe siècle, d'évidence scientifique que le monde eût un âge, et peu de phénomènes s'inscrivant dans la longue durée étaient connus. La physique de Newton donnait du ciel une description intemporelle où seuls des cycles plus ou moins longs, mais toujours parfaitement reproductibles, donnaient des points de repère dans l'écoulement du temps. En outre, toutes les religions possédaient un mythe de la Création, parfois très ancien, mais qui servait de référence ; en particulier, le monde judéo-chrétien s'accommodait parfaitement des quelque six mille ans auxquels la Bible faisait remonter la Genèse comme âge de l'Univers. En effet, la paléontologie n'était pas encore véritablement née, et l'existence d'espèces éteintes attestées par des fossiles pouvait à la rigueur s'expliquer par des phénomènes cataclysmiques dont le Déluge était le prototype. La notion la plus porteuse en terme d'écoulement du temps, la notion d'évolution, sinon de progrès, n'avait encore été formulée par personne, de sorte que le débat, si toutefois il y en avait un, se réduisait à construire une histoire du monde qui respectât d'une part le caractère cyclique suggéré par la périodicité des phénomènes célestes (cycle quotidien des étoiles dans le ciel, mensuel de la Lune, annuel des saisons, c'est-àdire de la Terre autour du Soleil, voire le cycle de 26 000 ans de la précession des équinoxes, sans parler des retours périodiques des comètes), d'autre part une durée finie du temps imposée par les Écritures, qui s'étendait de la Création au Jugement dernier, dans un laps de temps ne laissant aucune place aux processus évolutifs. Pour comprendre l'évolution des idées à la fin du XVIIIe siècle, il faut se souvenir que la théorie newtonienne de la gravitation constituait un modèle absolu de méthodologie auquel tout système scientifique devait se référer. Une théorie ne pouvait être avancée que si elle satisfaisait aux critères de déterminisme et d'ordre qui caractérisaient l'explication du mouvement des corps célestes par les lois conjuguées de la mécanique et de la gravitation. Cependant, la nécessité de donner un modèle de la Terre et de sa dynamique commençait à s'imposer à la suite des travaux, entre autres, de Buffon et de Linné qui, par une observation attentive des animaux et des plantes, étaient arrivés aux conclusions, d'une part, que la diversité des espèces était immense et, d'autre part, qu'une classification fondée sur des ressemblances anatomiques était possible. Par ailleurs, l'étude des roches, des montagnes et des volcans, ainsi que des minéraux, des fossiles, considérés dès lors comme témoignages d'une vie passée, que les travaux des taxinomistes permettaient de rapprocher d'espèces actuellement vivantes, rendait évidente l'idée que la Terre avait eu une histoire, et que les six mille ans bibliques étaient peut-être insuffisants pour contenir celle-ci. C'est dans ce contexte que se situe l'oeuvre du géologue écossais Charles Lyell (1797-1875), considéré comme le fondateur de la géologie. Dans ses Principles of Geology, publiés en 1830, révisés et republiés régulièrement jusqu'à sa mort, Lyell posait les bases d'une explication rationnelle, au sens newtonien du terme, de l'histoire de la Terre, compatible avec les données de l'observation (à défaut d'être seulement fondée sur elles) ; cet ouvrage se présentait aussi comme un manuel comportant une méthodologie du métier de géologue. Ainsi que le fait remarquer Stephen Jay Gould dans le livre qu'il lui consacre (Aux racines du temps, 1990), le modèle que propose Lyell découle plus d'une conviction intime du bienfondé de ses hypothèses que d'une déduction à partir de faits d'observation, lesquels n'interviennent que comme des preuves a posteriori de l'exactitude du modèle. Le principal apport de ce travail, celui qui en a été principalement retenu, à savoir la remise en question du temps de la Terre, la conviction, en somme, que ce temps est immensément long et se compte en centaines de millions d'années, apparaît donc non pas comme le résultat d'observations minutieuses, mais comme une nécessité méthodologique liée à la cohérence interne du modèle. L'idée centrale de Lyell est l'uniformité des lois auxquelles obéit le monde, uniformité qui s'étend aussi bien dans l'espace que dans le temps : les processus en oeuvre à la surface de la Terre ont en commun avec les lois newtoniennes qui régissent les mouvements des astres d'être les mêmes en tout lieu et à toutes les époques. Il en résulte que ce que nous observons aujourd'hui ne diffère en rien de ce qui avait lieu dans le passé, et que ce qui se produit à un certain endroit de la Terre (tremblement de terre, inondation, etc.) se produit également à d'autres endroits et d'autres époques, ce qui exclut toute possibilité de catastrophes majeures ayant concerné l'ensemble de la Terre à un moment donné. Cet argument, à l'inverse de ceux de Buffon, rejette tout recours au catastrophisme. Il explique, entre autres, la diversité des faunes et flores fossiles. Une autre conséquence de l'uniformitarisme est que, puisque les lois qui régissent les phénomènes sont immuables, ces phénomènes le sont également, autrement dit que l'état actuel de la Terre reflète fidèlement tous ses états passés. Il n'existe que des différences mineures entre la Terre et ses occupants actuels et ce qu'elle était à n'importe quelle époque passée (avec peut-être une exception pour l'homme). Paradoxalement, c'est à partir de ces arguments antiévolutionnistes que Lyell parvient au concept de « temps profond », c'est-à-dire à une radicale révision des échelles de temps : puisque l'observation des dynamiques actuelles nous donne une idée exacte de ce qu'elles furent dans le passé, il suffit de regarder à quelle vitesse se produisent à notre époque les phénomènes de sédimentation, de tectonique ou d'érosion pour estimer les durées qui furent nécessaires pour que se forment les couches géologiques, s'édifient les chaînes de montagne ou s'aplanissent les reliefs. Il faut alors accepter l'idée d'un temps profond, infiniment plus long que ce que toutes les autres théories, en général d'inspiration théologique, avaient proposé jusque-là. Lyell n'avait pas été le premier à revendiquer un allongement des temps géologiques, mais il fut le premier à donner à son choix une base scientifique solide, même si certaines conséquences de son modèle nous paraissent aujourd'hui totalement aberrantes. Il ouvrait ainsi la voie à d'innombrables développements, en particulier à la théorie darwinienne de l'évolution, à laquelle il ne se rallia que difficilement, car elle contredisait trop ouvertement le modèle d'uniformité. Parmi ses contradicteurs, les physiciens représentés par lord Kelvin objectèrent que la physique n'avait pas les moyens d'accorder les modèles admis sur le refroidissement de la Terre et la production de l'énergie solaire avec d'aussi longues durées. La découverte de la radioactivité apporta la réponse à toutes les questions, puisqu'elle permit de comprendre l'origine de la chaleur terrestre, de l'énergie solaire et qu'elle donna les outils de datation qui permirent de confirmer et même d'étendre les durées annoncées par Lyell. Complétez votre recherche en consultant : Les corrélats animal (règne) - Évolution et classification : historique - Introduction archéologie - Archéologie, religion, science et politique botanique Buffon (Georges Louis Leclerc, comte de) calendrier - Introduction catastrophisme création créationnisme Darwin Charles Robert déluge érosion espèce évolution - Les prémices du transformisme - Introduction fixisme fossile géologie - Histoire géomorphologie Kelvin (William Thomson, lord) Linné (Carl von) Lyell (sir Charles) mythologie - Les mythes de la création Newton (Isaac) paléontologie précession des équinoxes Soleil - La structure interne du Soleil - Le modèle solaire standard temps zoologie Les médias sciences (histoire des) - James Hutton et les temps géologiques Les livres sciences (histoire des) - collection de fossiles, page 4690, volume 9 sciences (histoire des) - un exemple d'érosion marine, dans les îles Shetland, page 4690, volume 9 sciences (histoire des) - Théorie de la Terre, de James Hutton, page 4691, volume 9 Complétez votre recherche en consultant : Les corrélats temps - Le concept philosophique La vie La description des êtres vivants, la recherche passionnée du siège des fonctions vitales, de l'âme en particulier, mais aussi l'étude anatomique du corps sain ou malade sont des préoccupations attestées dans toutes les civilisations et de tout temps. Cela ne constitue pas pour autant une véritable quête scientifique, et la vie en tant qu'objet de recherche est un concept récent. L'assurance que les processus biologiques n'ont pas de spécificité et se ramènent à un ensemble d'interactions physico-chimiques n'est vraiment acquise que depuis peu, et ce sont deux étapes essentielles de cette démarche qui sont décrites. Le premier texte raconte la lente consolidation du concept de cellule et du rôle central qu'elle joue et le second texte, plus centré dans le temps, décrit comment est née la biochimie au sens large, incluant aussi bien la pharmacologie que la biologie moléculaire. Naissance de la cellule La naissance simultanée des télescopes et des microscopes date de la fin du XVIe siècle. Ces microscopes composés, construits sur le modèle des télescopes, comportaient plusieurs lentilles ; de ce fait, l'image, peu agrandie, qu'ils donnaient n'était guère nette. Le microscopiste anglais Robert Hooke (1635-1703) fabriqua le premier microscope doté d'une seule lentille (microscope simple). Contrairement à ce que raconte la légende, ce type de microscope procurait des images nettes et agrandies de structures étonnamment petites. Il permettait, en particulier, d'observer non seulement des objets de la taille des cellules biologiques (de 10 à 20 micromètres), mais également plusieurs de leurs constituants. Hooke acquit sa célébrité en publiant en 1665, sous le titre Micrographia, un ensemble de dessins de sa collection d'observations au microscope. Il y mentionnait pour la première fois le nom de « cellule » pour désigner les structures cellulaires rectangulaires qu'il observait dans une tranche de liège, par analogie avec les chambres monacales que ces structures lui évoquaient. Dix ans plus tard, le scientifique hollandais fondateur de la pensée bactériologique moderne, Antonie Van Leeuwenhoek (1632-1723), en observant également des coupes de liège, attribuait à la cellule le sens qu'à quelques détails près elle a aujourd'hui, c'est-à-dire non pas les interstices de l'écorce visibles au microscope, mais bien l'entité, l'unité constitutive des tissus. Cette notion selon laquelle la cellule est, d'après la formule de Claude Bernard, « le premier représentant de la vie » peut paraître d'une grande banalité. Pourtant, il aura fallu près de deux siècles, depuis la première observation d'une cellule, pour que cette définition s'installe définitivement et l'emporte sur les théories qui prévalaient au XVIIIe siècle et au tournant du XIXe siècle, qu'il s'agisse de l'épigénisme, du préformationnisme ou du vitalisme, qui ne laissaient pas la place à la notion d'unité sous-tendant une architecture complexe. Après les deux naturalistes français René Dutrochet (1776-1847) et François Vincent Raspail (1794-1878) qui, en décrivant les « utricules », les « globules » et les « vésicules », avaient avancé la thèse selon laquelle il existait une unité de structure pour les végétaux et les animaux, c'est au botaniste Matthias-Jacob Schleiden (18041881) que revient le mérite d'établir la théorie cellulaire pour les végétaux que Theodor Schwann (1810-1882) étendit au règne animal. Ce que Schwann apporta de fondamental en 1839, avec la publication de ses Recherches microscopiques sur la concordance dans la structure et la croissance des animaux et des plantes, ce n'est pas tant la description minutieuse des microstructures qui formaient la cellule que l'affirmation de leur spécificité et de leur fonction en tant qu'entités constitutives de tous les êtres vivants. La théorie cellulaire permit alors d'aller au-delà de la simple description des formes observées au microscope, d'énoncer des lois empiriques sur le mode de fonctionnement, la formation des tissus animaux et végétaux, et la différenciation cellulaire. La naissance de cette théorie cellulaire, sa diffusion et son amélioration se firent grâce aux instituts de recherche qui se créèrent en Allemagne, en particulier à l'instigation de Johannes Müller (1801-1858). Ces institutions donnent un cadre à la diffusion des informations scientifiques, à la rationalisation théorique - avec l'élaboration de programmes de recherche et la fabrication de nouveaux instruments. Cependant, en accordant un rôle mineur au noyau, Schleiden, tout comme Schwann, ne pouvait qu'élaborer des hypothèses fausses quant à la formation des cellules. Les deux Allemands Robert Remak (1815-1865) et Rudof Virchow (18211902) récusèrent les hypothèses d'endogenèse ou d'exogenèse au profit de la notion que toute cellule dérive d'une cellule grâce à la scission du noyau. L'axiome de Virchow « Omnis cellula a cellula », transformé deux ans plus tard grâce à Franz Leydig en un célèbre « Omnis cellula e cellula », put aussi s'écrire en 1880 « Omnis nucleus e nucleo » (« Tout noyau provient d'un noyau ») quand on comprit le processus de la division cellulaire et l'importance de ce volumineux organite dans la genèse des cellules. En 1882, l'Allemand Walter Flemming créa le concept de mitose pour désigner l'étape de la division cellulaire pendant laquelle le noyau initial se divise en deux noyaux. Six ans plus tard, l'Allemand Wilhelm Waldeyer identifia les chromosomes comme des éléments distincts et discernables situés dans le « nucléoplasme », qui se séparent et migrent vers les pôles opposés de la cellule, ce qui aboutit à la formation de deux cellules filles. À cette époque, les résultats de Gregor Mendel (1822-1884) étaient déjà publiés. D'après ses expériences sur les petits pois, Mendel postula l'existence de « facteurs » ou d'« éléments » déterminant les caractères et considéra les caractères héréditaires d'un organisme comme des entités transmises indépendamment les unes des autres. Mais Mendel ne connaissait pas l'existence des chromosomes, ce qui lui ôtait donc toute possibilité de créer la notion d'allèles et encore moins celle de gènes. L'importance de ses travaux fut négligée, bien qu'ils fussent à l'époque connus par des biologistes de renom tels que Schleiden ou Darwin (1809-1882). Il fallut attendre 1900 pour que trois biologistes, le Hollandais Hugo De Vries (1848-1935), l'Allemand Carl Correns et l'Autrichien Erich Tschermak, retrouvent, chacun de leur côté, des résultats identiques à ceux que Mendel avait publiés trente-quatre ans auparavant. À titre posthume, ils nommèrent les lois de l'hérédité « lois de Mendel ». La génétique était née. Depuis, cette discipline n'a cessé de croître et de s'enrichir grâce à la mise en évidence progressive du lien entre l'ADN - la substance porteuse de l'information génétique -, les chromosomes et les gènes et grâce à la découverte par James Dewey Watson, Francis Crick et Maurice Hugh Frederick Wilkins en 1953 de la structure en double hélice de l'ADN, découverte qui marqua le début de l'ère de la biologie moléculaire. Depuis Leeuwenhoek, la microscopie a fait d'énormes progrès, en particulier grâce aux deux Anglais John Cuff et William Cary, pères des microscopes composés utilisés aujourd'hui dans la recherche, et à Robert Bancks, dont les microscopes simples permirent à Robert Brown, vers 1820, d'observer ce qu'on appelle maintenant le « mouvement brownien » et, en 1827, de décrire l'existence du noyau dans de nombreuses cellules végétales. La même année, le physicien italien Giovanni Battista Amici (1786-1863) réussissait à corriger les principales aberrations optiques, et la plupart des grandes découvertes furent alors effectuées. La cellule, depuis bien longtemps, n'est plus considérée comme un sac entouré d'une membrane contenant un fluide aqueux inorganisé, composé de toutes sortes de substances solubles, dans lequel flottent les organites. La plupart des organites sont connus en détail, et les Purkinje, Golgi, Leydig, Sertoli, etc., ont laissé leur nom à la postérité sous la forme d'une cellule particulière ou d'un de leurs constituants. Les microscopistes du milieu du XIXe siècle, en particulier Dujardin, puis Bruck, avaient même deviné, bien avant la naissance du microscope électronique (1930), que la distribution des organites au sein de la cellule n'était pas le fruit du hasard, mais devait répondre à une structure organisée. Avec sa résolution de l'ordre du nanomètre (un millième de micromètre), le microscope électronique permet de pénétrer dans un territoire cellulaire encore inconnu. Encore faut-il, pour l'utiliser judicieusement, savoir séparer et isoler les différents composants cellulaires. Parallèlement à la cytologie, la chimie, relayée par la biochimie, a pris un essor considérable. Les chimistes, en suivant la voie tracée par Friedrich Wölher (1800-1882), qui obtint en 1828 la première molécule du vivant, l'urée, isolent, purifient et synthétisent des composés organiques de plus en plus complexes. Le développement de méthodes permettant la culture de cellules en grande quantité et l'isolement de leurs composants, en particulier grâce à la centrifugation, établit la liaison nécessaire entre l'aspect et le contenu, la morphologie et la biochimie. La cellule est un tout en perpétuelle communication avec le monde qui l'entoure, milieu aqueux ou cellules avoisinantes. Les secrets de plus en plus nombreux qu'elle détient ne seront percés que par des approches pluridisciplinaires impliquant microscopistes, biochimistes, virologistes, généticiens, immunologistes et biologistes moléculaires. Complétez votre recherche en consultant : Les corrélats aberration - 2.OPTIQUE ADN (acide désoxyribonucléique) biochimie biophysique brownien (mouvement) cellule c hromosome Crick (Francis Harry Campton) De Vries Hugo gène Golgi (appareil de) hérédité - Les lois de l'hérédité Hooke Robert Mendel (Johann, en religion Gregor) microscope mitose Raspail François Vincent Van Leeuwenhoek Antonie vie Virchow Rudolf vitalisme Wöhler Friedrich Les livres sciences (histoire des) - le microscope de Robert Hooke, page 4692, volume 9 sciences (histoire des) - les observations de Leeuwenhoek, page 4692, volume 9 sciences (histoire des) - la cellule d'après Theodor Schwann, page 4693, volume 9 sciences (histoire des) - l'appareil de Golgi dessiné par Camillo Golgi, page 4693, volume 9 La chimie et la vie Avant même que la chimie et la biologie aient trouvé leurs statuts scientifiques, l'homme avait depuis longtemps pressenti qu'il existe des relations aussi diverses que subtiles entre la matière inanimée et la matière vivante. Nicondre de Colophon (204-138 avant J.-C.) est sans doute l'auteur qui nous a laissé les détails les plus anciens sur les connaissances que l'on avait des poisons et des symptômes de leurs effets. Il connaissait déjà, entre autres, l'arsenic (ou son sulfure), le mercure, la céruse (carbonate de plomb), le suc des plantes toxiques comme la ciguë, l'aconit, l'hellébore blanc et l'hellébore noir. La doctrine du médecin et alchimiste Paracelse (vers 1493-1541) et sa thérapeutique chimique appelée chimiâtrie ont pu être résumées dans ces formules : « L'homme est un composé chimique ; les maladies ont pour cause une altération quelconque de ce composé : il faut donc, pour combattre les maladies, avoir recours à des médicaments chimiques. » À ces propositions, Paracelse en ajoutait une autre, moins contestable quoique aujourd'hui trop souvent oubliée : « C'est la dose qui fait le poison. » En fait, parmi tous les produits chimiques plus ou moins bien définis qui ont été pendant plusieurs siècles réputés pour leurs propriétés curatives, il en est peu qui aient résisté à l'épreuve d'une expérimentation sérieuse. On retiendra, parmi ceux-ci, l'extrait d'opium (le pavot contient de la morphine, aux propriétés analgésiques) ou la poudre de la Comtesse, faite d'écorce de quinquina pulvérisée (qui contient de la quinine, efficace contre les fièvres de la malaria), dont les agents actifs n'ont été isolés et caractérisés qu'au début du XIXe siècle. D'une façon plus générale, la quête obstinée des alchimistes d'une panacée, remède de toutes les maladies, ne les a jamais conduits à des découvertes ayant une valeur thérapeutique, même si leurs travaux en aveugle ont abouti à d'intéressantes observations sur ce qu'ils ne cherchaient pas. La découverte de l'azote contenu dans l'air que nous respirons se rattache directement au sujet qui nous occupe ; le mot lui-même rappelle que ce gaz est incapable de maintenir en vie les souris que le pasteur Joseph Priestley (1733-1804) introduisait dans une cloche d'où la combustion d'une chandelle avait fait disparaître l'oxygène. Peu de temps après, en 1777, Lavoisier démontrait que la respiration est une véritable combustion, et il mesurait la chaleur qu'elle dégage. L'isolement de nouvelles substances pures à partir d'excrétats ou d'extraits d'organismes vivants constitue une activité dont les résultats continuent, jusqu'à nos jours, à jalonner l'histoire de la chimie. Ces produits organiques portent des noms qui trahissent leur origine : acides tartrique (isolé du tartre de vin), benzoïque (de l'essence de benjoin), palmitique (de l'huile de palme), asparagine (des asperges), urée, etc. Les substances à l'étude desquelles se consacre la chimie organique sont souvent difficiles à obtenir et à purifier ; la détermination de leur structure demandait (encore jusqu'à ces dernières décennies) de laborieux efforts. Ces difficultés firent que l'on admit pendant longtemps que la composition des substances d'origine naturelle obéissait à des lois spécifiques et qu'en particulier la loi des proportions définies de Joseph Louis Proust (1754-1826) ne pouvait pas leur être appliquée, loi qui, rappelons-le, stipule que la composition des corps ne peut pas varier de façon continue. « Quant aux composés organiques, affirmait encore en 1819 le chimiste suédois Jöns Jakob Berzelius (17791848), on ignore en combien d'ordres différents ils peuvent se combiner, soit entre eux, soit avec les autres composés inorganiques. » Les progrès des méthodes analytiques devaient bientôt lever cette incertitude et prouver que la loi de Proust est bien d'une portée générale. Il n'en restait pas moins que, face à l'impuissance d'une chimie organique, encore dans les limbes, à synthétiser ces produits à partir de leurs éléments constitutifs (carbone, hydrogène, oxygène et azote essentiellement), un certain nombre de bons esprits croyaient, avec Berzelius, que la formation des substances isolées à partir des plantes ou des animaux n'était possible que grâce à l'intervention d'une mystérieuse force vitale. Avec sa synthèse (fortuite) de l'urée naturelle à partir d'un pur produit minéral, le carbonate d'ammonium, l'Allemand Friedrich Wöhler (1800-1882) prouva en 1828 que cette force vitale n'avait rien d'indispensable. Plus tard, Marcellin Berthelot (1827-1907) devait corroborer cette découverte en réalisant des synthèses (comme celles des graisses ou de l'alcool) qui confirmaient les travaux de Wöhler. Ce vitalisme plus ou moins avoué, qui refuse à la chimie sa capacité de rendre compte de certaines manifestations de la vie, nous le retrouvons à l'occasion des études qui suivirent la découverte des enzymes. C'est Anselme Payen (1795-1871) et Jean-François Persoz (1805-1868) qui, les premiers, donnèrent le nom de diastases à ces molécules protéiniques grâce auxquelles les organismes vivants sont capables d'effectuer certaines réactions (comme par exemple celles qui effectuent la digestion des aliments) avec une efficacité que le chimiste leur envie. Ces catalyseurs spéciaux sont-ils vivants ou tout au moins « organisés » ? Pasteur, à propos de la fermentation alcoolique, croyait que leur remarquable activité était associée à la structure même de la cellule qui les renferme. L'Allemand Eduard Buchner (1860-1917) devait montrer que ces enzymes sont des produits chimiques comme les autres, la complexité en plus, et qu'elles sont capables d'agir en dehors du vivant. C'est encore Pasteur qui, en 1848, fit une découverte fondamentale dans le domaine de la chimie : il nous a appris que certaines molécules peuvent exister sous deux formes, images l'une de l'autre dans un miroir (à la façon de nos deux mains). L'acide tartrique ne se présente dans la nature que sous une seule de ces deux formes, celle dont les solutions dans l'eau dévient vers la droite la lumière polarisée qui les traverse. Pour Pasteur, « il y a une séparation profonde entre le règne organique et le règne minéral... On n'a jamais fait un produit de synthèse minéral ou organique ayant d'emblée la dissymétrie moléculaire... La dissymétrie préside aux actions chimiques qui donnent lieu aux principes essentiels de la vie végétale... ». Si certaines expériences récentes (Henri Kagan, 1971) limitent l'affirmation de Pasteur, il n'en reste pas moins que l'origine de la dissymétrie « naturelle » demeure encore un problème ouvert. Les progrès considérables de la chimie au cours du XXe siècle ont permis d'envisager sous un éclairage nouveau les problèmes posés par la matière vivante. Ils l'ont fait dans plusieurs directions différentes. Le mot « hormone », inventé en 1905, recouvre désormais une extraordinaire variété de messagers chimiques qui contrôlent les processus moléculaires à l'intérieur des organismes vivants. L'isolement des hormones sexuelles mâles et femelles qui régissent les processus de reproduction chez les mammifères date des années trente. À la même époque (1932), on découvrit que certaines substances sont responsables de l'élongation cellulaire des végétaux. Les phéromones, mises en évidence au cours des années quarante, sont à l'origine de l'attirance sexuelle chez les insectes. D'une manière très générale, l'inventaire des molécules souvent très compliquées qui, d'une façon ou d'une autre, interviennent dans les processus vitaux ne cesse de s'étendre, en particulier grâce à des méthodes de plus en plus efficaces d'analyse et de synthèse. Sur un autre plan, la chimie thérapeutique a inventé de nouveaux rapports avec le vivant. L'isolement de la quinine (1820), la découverte de l'anesthésie par le protoxyde d'azote (1844), l'éther (1846) ou le chloroforme (1847), celle des propriétés analgésiques de l'acide acétylsalicylique (aspirine, 1898), celle des sulfamides (1935), celles des antibiotiques (et de la pénicilline en particulier), de la cortisone (1935) et de ses effets anti-inflammatoires, ou enfin de la cyclosporine (1976) qui a rendu possibles les greffes d'organes, constituent parmi d'autres de véritables révolutions. Le contrôle des naissances par les anti-ovulatoires chimiques (Gregory Goodwin Pincus, 1960) s'inscrit lui aussi dans la longue liste des événements scientifiques qui, à proprement parler, ont changé la vie. En conclusion, il n'est évidemment pas besoin d'insister sur la profonde intrication de la chimie et de la biologie au sein de la biologie moléculaire. La complexité des structures et des mécanismes réactionnels mis en jeu propose au chimiste de demain d'inépuisables thèmes de recherche. Ces brefs coups de projecteur sur quelques points de l'histoire des relations entre la chimie et le vivant nous ramènent, d'une certaine façon, aux poisons évoqués au début de notre propos. La chimie qui nous aide à comprendre la vie serait-elle aussi contre le vivant ? Certains ne sont pas loin de le croire. Le chlore, découvert par le Suédois Carl Wilhelm Scheele (1742-1786) n'a-t-il pas été le premier gaz de combat utilisé, en 1917 ? L'accident de Seveso (1976), qui ne fit aucun mort, ou la catastrophe de Bhop?l (1984), où l'on compta plus de 2 000 victimes, les menaces que les applications d'une science mal gérée font peser sur l'environnement appartiennent eux aussi à l'histoire de la chimie. Ils appartiennent peut-être plus encore à celle de la société que l'homme se donne. Complétez votre recherche en consultant : Les corrélats aconit alchimie analyse - 1.CHIMIE anesthésie antibiotique arsenic aspirine a zote benzoïque (acide) Berthelot Marcellin Berzelius (Jöns Jacob, baron) Bhopal biologie céruse chimie - Histoire de la chimie chimie - Les différentes branches de la chimie chiralité chlore chloroforme ciguë combustion cortisone cyclosporine enzyme éther - 2.CHIMIE gaz de combat hellébore hormone Lavoisier (Antoine Laurent de) mercure - 1.CHIMIE morphine opium oxygène palmitique (acide) Paracelse (Theophrastus Bombastus von Hohenheim, dit) Pasteur Louis pavot pénicilline pharmacie - L'histoire de la pharmacie phéromone Priestley Joseph Proust Joseph Louis quinine quinquina respiration Seveso sulfamides synthèse tartrique (acide) urée vitalisme Wöhler Friedrich Les livres sciences (histoire des) - Joseph Priestley et la respiration, page 4694, volume 9 sciences (histoire des) - page d'un cahier de laboratoire de Louis Pasteur, page 4694, volume 9 Quelques réflexions en forme de conclusion À quelque époque et dans quelque domaine que ce soit, rares sont les savants qui ont prétendu que leurs motivations premières n'étaient pas la recherche d'une vérité encore cachée et le désir de satisfaire leur curiosité sur les secrets de la nature. Les quelques exemples développés dans ce dossier avaient pour ambition de décrire des moments privilégiés de cette démarche. Ce credo est encore actuel, mais on peut se demander si cette finalité est bien celle que perçoit également la société dans laquelle le chercheur est plongé et dont il tire bon an mal an ses moyens d'existence. Il n'est pas évident que les exemples développés et choisis pour leur exemplarité dans l'histoire des idées aient la même qualité en ce qui concerne les rapports du savant avec la société. Il paraît donc plus logique de conclure ce récit en prenant d'autres exemples pour lesquels l'interaction du savant avec son époque a été particulièrement significative. Complétez votre recherche en consultant : Les corrélats idéologie recherche scientifique science technique Galilée et ses juges En 1633, Galilée, célèbre dans toute l'Europe et reconnu comme un des plus grands savants de son époque tant par ses pairs que par les grands de ce monde, comparait devant un tribunal réuni sur l'initiative du pape pour rendre compte de l'affirmation suivant laquelle c'est le Soleil et non la Terre qui constitue le centre immobile de l'Univers, idée déjà ancienne puisque Copernic l'avait proclamée quatre-vingt-dix ans auparavant. La nouveauté tient au fait que Galilée, contrairement à Copernic, est plongé dans son siècle et que son statut de scientifique y est reconnu. Les idées qu'il avance sont plus que de simples élucubrations : elles prétendent affirmer la vérité, laquelle relevait jusque-là du domaine religieux ou scolastique. L'idée que le savant pût remettre celui-ci en cause n'était pas encore admissible au début du XVIIe siècle. Certes, son prestige fit que la condamnation ne fut pas trop sévère, mais elle fut exemplaire. Plusieurs historiens ont cherché à dénouer les fils de ce procès, et ont tenté d'y voir autre chose qu'une simple condamnation de la science par l'obscurantisme. Quelles qu'en aient été les raisons profondes, il est certain qu'au moins en Italie le poids qu'il eut sur le développement des idées fut considérable. Complétez votre recherche en consultant : Les corrélats Copernic Nicolas Galilée (Galileo Galilei, dit en français) Les livres sciences (histoire des) - et pourtant, elle tourne, page 4695, volume 9 Les savants et la Révolution française En 1793, le Comité de salut public déclare la « mobilisation des savants » au service de la patrie en danger. Se constituent alors des commissions d'experts, d'ingénieurs, de savants, qui ont pour tâche de mettre en place les structures nécessaires à la fabrication des armes et des munitions, à l'organisation des communications, de l'intendance, et de prévoir ce dont une armée non équipée et inexpérimentée avait besoin pour vaincre la coalition des monarchies. Pour la première fois, les savants participent directement au pouvoir politique, et leur rôle reconnu est indispensable à la nation. Nul ne met plus en doute la validité de la science, et sa contribution au progrès semble déterminante. La création de l'École polytechnique exprime le désir d'avoir désormais un corps de savants formés au service de la nation. Complétez votre recherche en consultant : Les corrélats polytechnique (École) salut public (Comité de) Science et révolution industrielle En 1856, William Thomson s'embarque à bord du poseur de câbles transatlantique affrété par la compagnie dont il était le directeur. Ainsi, un des plus brillants physiciens de son siècle, célèbre pour ses travaux en thermodynamique, en électromagnétisme et même en astrophysique et en géophysique, considère-t-il comme normal de s'engager dans le processus économique de la révolution industrielle, avec le soutien de toutes les autorités de son pays. Au milieu du XIXe siècle, le savant a conquis une place sociale de premier plan : il est reconnu et célébré autant pour sa réussite scientifique que pour la place que commence à prendre la science dans la société et même dans le développement économique. La thermodynamique n'est rien d'autre qu'une déclinaison de la machine à vapeur, laquelle répand sa suie noire sur l'Angleterre. Et l'Angleterre annoblit William Thomson le thermodynamicien, qui devient lord Kelvin. Le processus qui s'amorce à cette époque va, au cours du XXe siècle et surtout à l'occasion des deux guerres mondiales, devenir prépondérant dans les relations entre recherche scientifique et développement industriel. De plus en plus, les programmes scientifiques vont dépendre de l'état du développement industriel, des moyens que celui-ci peut procurer à la recherche scientifique, mais surtout des demandes qu'il lui adresse. Complétez votre recherche en consultant : Les corrélats Kelvin (William Thomson, lord) révolution industrielle - Déséquilibres et contestations de la civilisation industrielle Marxisme et génétique En 1948, Trofime Denisovitch Lyssenko devient, avec le soutien de Staline, le chef de l'Institut de génétique de l'Académie des sciences d'URSS. Cette consécration, qui devait avoir les plus tristes conséquences sur le développement de la génétique en Union soviétique et dans les pays satellites pendant les vingt années qui suivirent, récompense un homme qui a admis que la science, et pas seulement le scientifique, devait se mettre au service de l'État et de son idéologie. Il n'hésita pas à ériger en vérités scientifiques les interprétations erronées qu'il donna à partir d'expériences sur l'adaptation des végétaux à leur milieu, réintroduisant la vieille théorie lamarckienne de l'hérédité des caractères acquis, au mépris de toutes les données de la génétique post-mendélienne. Le XXe siècle a malheureusement connu d'autres exemples où des critères de vérité scientifique étaient imposés, par des considérations complètement extérieures à la science, à des scientifiques qui ne s'en offusquaient pas. Complétez votre recherche en consultant : Les corrélats Lyssenko Trofim Denissovitch L'appel d'Heidelberg En mai 1992, plusieurs centaines de scientifiques, dont un nombre important de Prix Nobel, signaient un appel destiné aux participants de la Conférence sur l'environnement qui devait se tenir à Rio durant l'été. Le ton de cet appel, dont certains passages auraient pu figurer au plaidoyer du procès de Galilée, laissait entendre que la science était menacée par une nouvelle forme d'obscurantisme institutionnel contre lequel il fallait s'insurger ! Le débat qui suivit montra que les motivations étaient plus complexes qu'il n'y paraissait. L'affrontement se faisait en réalité entre une science elle-même très institutionnelle et une idéologie diffuse traduisant une sorte de refus de cette science, jugée plus néfaste qu'utile : le progrès, issu de cette science, a-t-il vraiment apporté ce qu'on attendait de lui ? Le nuage de Tchernobyl, le trou dans la couche d'ozone et la difficulté à vaincre le sida constituent aux yeux du public des exemples qui pourraient remettre partiellement en question ce progrès. Complétez votre recherche en consultant : Les corrélats Heidelberg Complétez votre recherche en consultant : Les corrélats idéologie recherche scientifique science technique Complétez votre recherche en consultant : Les corrélats épistémologie physique techniques (histoire des) Les livres sciences (histoire des) - portrait de Pieter Gilles par le peintre flamand Quentin Metsys, page 4676, volume 9 sciences (histoire des) - les arts et les sciences, page 4676, volume 9 Les indications bibliographiques D. Boorstin, les Découvreurs, Laffont, Paris, 1992 (1988). C. Ronan, Histoire mondiale des sciences, Seuil, coll. « Science ouverte », Paris, 1988. M. Serres (sous la direction de), Éléments d'histoire des sciences, Bordas, Paris, 1989. R. Taton (sous la direction de), Histoire générale des sciences, 3 tomes, PUF, Paris, 1995 (1966-1983).

« La lumière La lumière fut l'un des sujets les plus sensibles dans le développement de la physique, d'une part comme support de la vision, qui est le principal canal de notre connaissance du monde, et comme vecteur d'informations venant d'endroits inaccessibles (les étoiles), d'autre part comme champ d'expérience privilégié pour les diverses théories du rayonnement.

Le premier des quatre textes qui suivent relate l'étape cruciale où l'on a pris conscience du rôle que joue la lumière dans la vision ; les deux textes suivants montrent comment la lumière fut d'abord traitée comme objet soumis aux lois de la mécanique, donc objet mécanique lui-même, puis comme l'essence même d'un objet non mécanique. Le dernier texte présente l'émergence du concept de nombre complexe, outil mathématique indispensable à la description de grandeurs oscillatoires, dont la lumière est un exemple privilégié. Ibn al-Haytham et l'inversion du regard L'optique conçue comme une description des conditions dans lesquelles les objets nous sont « visibles » et des lois qui président à cette vision, en particulier celles qui concernent la nature et le rôle de la lumière, fut un sujet d'intérêt chez les Grecs.

Outre quelques scolies et textes de Démocrite, Chrysippe, Platon, Aristote, entre autres, deux traités importants, l'un d'Euclide, écrit probablement vers 300 avant J.-C., l'autre de Claude Ptolémée, mathématicien et astronome alexandrin du II e siècle de notre ère, sont parvenus jusqu'à nous.

Distants de quatre cents ans, ces deux textes traduisent une évolution, non seulement dans le mode de raisonnement, totalement déductif chez Euclide le Géomètre, plus nuancé dans l'utilisation des données de l'expérience chez Ptolémée l'Astronome, mais aussi dans le niveau des connaissances, en particulier en ce qui concerne les lois de la réflexion et de la réfraction. Le texte d'Euclide se présente comme une suite de théorèmes qui s'enchaînent les uns aux autres à partir d'un ensemble de sept postulats, dont le but est de comprendre l'aspect visible des objets, le lien qui existe entre leur réalité et ce que l'œil en perçoit : relation entre les visions d'un même objet de face ou de profil, diminution apparente de la taille d'un objet qui s'éloigne, etc.

L'optique de Ptolémée se présente, au contraire, comme la description d'une suite d'expériences menées de façon systématique, à l'aide d'instruments qu'il décrit, dans le but de justifier des propositions.

Ainsi peut-il montrer que, dans la réflexion sur un miroir, l'angle d'incidence et l'angle de réflexion sont égaux. Il établit, dans diverses circonstances de réfraction, une table de correspondance entre angle d'incidence et angle de réfraction, sans toutefois pouvoir, faute d'outils trigonométriques suffisants, formuler la loi de la réfraction. On serait tenté, devant cette description, de considérer ces deux ouvrages comme les premières ébauches d'une théorie de l'optique qui, faute d'outils mathématiques et d'instruments adéquats, n'aurait pas pu aboutir à l'optique géométrique telle qu'elle s'est constituée au cours du XVII e siècle : une recherche des lois physiques auxquelles sont soumis les rayons lumineux dans la trajectoire qu'ils suivent entre deux points, lesquels peuvent éventuellement être l'objet que nous regardons et notre rétine.

Là n'est pas du tout le but recherché par les opticiens de l'Antiquité.

Pour la grande majorité des « savants » grecs, le monde n'existe qu'autant qu'il est perceptible, et toute description qu'on peut en faire ne peut être que celle que nos sens nous en donnent.

Les objets ne se différencient que par des qualités sensibles, qui portent la marque des sens par lesquels nous les appréhendons.

Or l'acte d'appréhension n'est pas passif, et, de même que nous tendons la main pour palper un objet, de même l'appréhension visuelle découle-t-elle d'une « action » visuelle, à savoir la projection de notre regard sur les objets.

Toute la conception grecque de la vision repose sur l'affirmation que l'œil « projette » littéralement un « rayon visuel » sur l'objet qu'il regarde, et que la vision n'est autre que la sensation que nous avons de ce rayon, de sa direction, de sa longueur, du nombre de rayons voisins qui l'entourent et de la réaction de l'objet à son contact.

Toutes les expériences ingénieuses de Ptolémée n'ont d'autre but que de mettre en évidence les propriétés de ces rayons visuels et de leurs avatars quand ils rencontrent la surface d'un miroir ou d'un plan d'eau. Les œuvres d'Euclide et de Ptolémée connurent une large diffusion et firent autorité pendant près d'un millénaire, malgré les difficultés qui nous semblent inhérentes au concept de rayon visuel.

Ce qui nous apparaît comme un présupposé idéologique. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles