Devoir de Philosophie

CHAOS, FRACTALES, COMPLEXITÉ

Publié le 02/05/2019

Extrait du document

CHAOS

 

 

MÉTÉOROLOGIE ET MODÉLISATION

 

L’un des problèmes liés à la pratique et à l’application pour lequel il semblait que la physique pouvait être très utile et rendre un service important à la collectivité était celui de la météorologie. Les phénomènes atmosphériques qui se manifestent sous la forme de nuages, de pluie, de vent, ou de variations de températures ne sont autres que des phénomènes physiques. Par conséquent, il était parfaitement naturel de tenter d’appliquer les lois de la dynamique des fluides et de la thermodynamique pour obtenir une description scientifique. De plus, en suivant le principe du déterminisme, une fois obtenue cette description, il devenait possible de connaître le passé ou le futur, de la même façon que l’on connaissait le présent. Et cela voulait dire qu’il était envisageable d’obtenir des prévisions météorologiques précises. Si cela se révélait possible, les avantages économiques et sociaux seraient évidemment importants.

À la fin du XIXe siècle, différents savants avaient tenté de suivre cette voie. C’est ainsi qu’avait été proposée une description de la dynamique atmosphérique qui utilisait les équations différentielles. Nous savons que la science a toujours aimé la simplicité, mais dans ce cas, le problème abordé est d’une intense complexité. On y retrouve un grand nombre de facteurs - c'est-à-dire, mathématiquement parlant, de variables - qui jouent un rôle dans le développement des conditions atmosphériques. Ces variables ont chacune une régulation propre, mais sont liées réciproquement par de multiples interactions. Par conséquent, même si pour obtenir une description hypothétique on opérait une simplification, le schéma mathématique était tellement compliqué qu’il rendait impossible la solution théorique. Les méthodes numériques n’étaient pas non plus réalisables à l’époque, en raison de la grande quantité de calculs requise. Faute de mieux, les météorologues continuèrent de travailler en se servant de leurs techniques traditionnelles, c'est-à-dire en élaborant les prévisions sur la base de l’interprétation des données disponibles et des cartes du temps. L’élément subjectif, l’expérience du météorologue et la qualité de la documentation de cartes de différents profils météorologiques, jointe à certains éléments de physique, étaient les aspects fondamentaux de cette activité.

Toutefois, dès que furent disponibles les premiers grands calculateurs, dans les années 40, on donna la priorité à l’analyse des problèmes météorologiques. Dans les années 50, on commença à travailler dans cette direction. Les problèmes météorologiques étaient peut-être le premier exemple, l’exemple paradigmatique d’un problème complexe, d’un « nouveau » type de problème qu’on essayait d’étudier scientifiquement ou, mieux, mathématiquement. Ce n’était pas le seul, en fait. L’une des tentatives caractéristiques de la seconde moitié du XXe siècle consiste à appliquer ces méthodes, jusqu’alors typiques de la physique mathématique aux secteurs les plus divers de la technologie, de l’économie, de la biologie. Lorsque l’on va au-delà des problèmes de physique classique bien délimités, régis pour la plupart par une dynamique de type linéaire, on se retrouve au sein de problèmes complexes, de systèmes caractérisés par un grand nombre de composantes et un grand nombre d’interactions. Même si l’on introduit des simplifications et que l’on n’étudie que des aspects partiels, le problème n’en reste pas moins complexe. Et souvent, pour l’aborder, on ne peut pas faire abstraction d’une dynamique non linéaire. L’utilisation des ordinateurs a facilité le calcul numérique, ce qui explique en partie pourquoi la science a enfin pu s’engager sur cette voie.

En outre, les mathématiques appliquées ont laissé de côté l’approche traditionnelle de la physique mathématique. Elles ont élaboré des « modèles mathématiques », autrement dit des schémas mathématiques formels abstraits applicables transversalement à de nombreux problèmes et dégagés de la nécessité de l’établissement d’une « vérité » concernant un phénomène, tentant tout au plus d’en décrire quelques aspects. Il s’agit d’une nouvelle méthode, qui n’a pas remis en question les anciennes convictions fondamentales, en premier lieu l’adhésion des savants au principe du déterminisme. S’agissant toutefois d’étudier des phénomènes réels, éventuellement dans le but de favoriser une intervention régulatrice et de contrôle (comme dans le développement technologique, dans l’écologie, l’économie, la météorologie), on s’est concentré sur la possibilité d’obtenir des prévisions.

 

 

L’ATTRACTEUR DE LORENZ

 

Au début des années 60, le météorologue américain Edward Lorenz publia, dans une revue consacrée aux recherches sur les sciences de l'atmosphère, un article qui contenait d’intéressantes réflexions. Lorenz, faisant usage d’un petit ordinateur, avait construit ce qu’il considérait comme un petit exemple - un « modèle », pour utiliser un langage plus moderne - d’atmosphère. En effet, il ne se préoccupait pas de comparer son exemple avec une situation réelle donnée, comme l’avaient fait les pionniers de la météorologie tels Richardson ou von Neumann, mais il réalisait une simulation, en accumulant des données concernant sa petite atmosphère imaginaire. Il utilisait également une procédure graphique rudimentaire qui lui permettait d’imprimer une figure qui visualisait l’évolution du système. Un jour, voulant examiner l’une des séquences de données sur une période de temps plus longue, au lieu de repartir de zéro, il reprit les opérations à partir des données obtenues par l’ordinateur au milieu de la session d’un calcul précédent. Ces données servaient à présent de conditions initiales. Selon le déterminisme mathématique, les données obtenues par la suite par l’ordinateur sur l’état de l'atmosphère devaient coïncider avec celles de la première exécution tant qu’elles étaient disponibles. Pourtant, il remarqua que la prévision précédente et celle qu’il venait d’obtenir s’éloignaient rapidement l’une de l’autre.

S’agissait-il d’une panne de l’ordinateur ? Ou ces données étaient-elles contraires au principe du déterminisme ? Ni l’un ni l’autre, et l’espérance de réussir à obtenir des prévisions météorologiques, valables pour plusieurs jours, disparaissait. Ce qui s’était passé, c’est que Lorenz avait introduit les données « arrondies », c'est-à-dire avec moins de chiffres décimaux que ceux que le calculateur conservait en mémoire (0,432 au lieu de 0,432152). En réalité, entre ces nombres, il existe une différence minuscule (de 0,000152) qui suffit à provoquer une évolution du système complètement différente. C’est là le phénomène de la sensibilité aux conditions initiales ou, en d’autres termes, de l’instabilité du système face à de petites perturbations. Dans une conférence sur le Programme global de recherche atmosphérique, tenue en 1972, Lorenz se demandait de façon un peu provocatrice s’il était possible que le battement des ailes d’un papillon au Brésil puisse déclencher une tornade au Texas. Il énumérait un certain nombre d’observations sur la structure de la situation météorologique en mesure de confirmer l’instabilité de l'atmosphère, mais rappelait aussi que l’aspect essentiel de sa « découverte » consistait en une représentation de l'atmosphère au moyen d’un modèle mathématico-informatique. En définitive, la sensibilité aux conditions initiales apparaît comme une propriété du modèle, et ce modèle est une approximation de la réalité, conditionnée par notre connaissance limitée des principes physiques qui régissent le temps, mais aussi par la façon d’opérer caractéristique de l’ordinateur.

Pour illustrer le phénomène, Lorenz proposa un modèle météorologique encore plus simple, lié à un phénomène particulièrement important dans ce contexte, la convection, c'est-à-dire le mouvement d’un fluide (liquide ou gaz) sous l’effet de la chaleur. En effet, la chaleur de la surface de la Terre provoque des courants d’air ascendants dans l'atmosphère, donnant éventuellement lieu aux nuages orageux. Ce phénomène est décrit par certaines équations aux dérivées partielles classiques qui lient la vitesse du fluide et la propagation de la chaleur. En introduisant certaines simplifications, Lorenz parvint à une description, au moyen d’un système de trois équations différentielles ordinaires non linéaires devenu célèbre aujourd'hui :

 

Le calcul numérique de la valeur des variables x, y, z montrait, en revanche, la grande complexité de la dynamique de ce système, qui ne tend ni vers un état stationnaire, ni vers une évolution périodique. En effet, les oscillations, régulières au début, devenaient par la suite complètement chaotiques. Le diagramme des phases (en trois dimensions) montrait que les trajectoires s’enroulent autour d’un objet ayant une forme très particulière:

 

 

 

Cette étrange figure dans l’espace des phases est l’un des premiers exemples d’un nouveau type d’attracteurs, décrit de façon plus générale pour la première fois par David Ruelle et Floris Taken - dans le contexte de la théorie des systèmes dynamiques - et qui se présente en systèmes de dimension trois (comme celui de Lorenz) ou supérieure à trois. Il s’appelle « attracteur étrange », précisément parce qu’il n’est pas simple comme un point (qui indique un état asymptotique stationnaire) ou un cycle-limite (qui indique un état asymptotique périodique) mais peut présenter les formes les plus bizarres, et peut-être même des formes impossibles à visualiser à l’aide des instruments graphiques de l’ordinateur. De cette façon, en présence d’un attracteur étrange, le comportement asymptotique d’un système est apparemment aléatoire, en ce sens que chaque ensemble de conditions initiales - même lorsqu’il s’agit de conditions initiales très proches, presque identiques - peut donner lieu à un comportement radicalement différent à long terme. Puisqu’en réalité les conditions initiales d’un système ne sont jamais connues avec une précision absolue, dans la pratique, la prévision, même si en théorie le comportement du système est déterminé, est impossible.

La découverte du chaos déterministe dans les systèmes dynamiques représentait une mauvaise nouvelle pour les chercheurs en prévision météorologique. Toutefois, elle offrait la possibilité d’étudier des phénomènes physiques dans lesquels semblait être présent un certain caractère aléatoire sans avoir recours à des méthodes stochastiques (c'est-à-dire fondées sur la théorie des probabilités). Par conséquent on faisait usage de la théorie des systèmes dynamiques, c'est-à-dire d’une théorie de type déterministe. C’est par exemple le cas de la turbulence, l’un des plus anciens problèmes irrésolus de la physique classique. Dès le début du XIXe siècle, les physiciens mathématiciens étaient parfaitement en mesure de décrire le flux régulier d’un liquide ou d’un gaz, mais l’origine des flux turbulents, qui revêtent une importance capitale du point de vue des applications, n’a pas encore trouvé une véritable explication théorique. Les ingénieurs en aéronautique et ceux qui dessinent les conduits et les canalisations sont capables, dans la pratique, de résoudre les problèmes de turbulence, d’en prévenir et d’en éliminer les effets, qui peuvent diminuer le rendement d’un appareil et provoquer des catastrophes. Mais en ce qui concerne la transition de la régularité à la turbulence, on ne peut, pour l’instant, que faire des hypothèses. La notion d’attracteur étrange fut introduite par Ruelle et Takens, dans le cadre d’une nouvelle théorie mathématique de la turbulence, fondée sur la théorie des systèmes dynamiques de Smale. C’est ainsi que naissait un nouveau domaine de recherche destiné à l’étude déterministe de la turbulence, c'est-à-dire, pour paraphraser le titre d’un manuel sur ce sujet, publié en 1984 par Bergé, Pomeau et Vidal, pour retrouver « l’ordre à l’intérieur du chaos ».

 

 

FRACTALES

 

Les mathématiques du XXe siècle se sont proposées un idéal d’austérité et de rigueur dont étaient exclues aussi bien les intuitions de type géométrique - qui pouvaient induire en erreur et compromettaient la perfection de la méthode axiomatique - que la dépendance d’un lien direct avec la physique, qui compromettait l’autonomie et le caractère formel et abstrait des mathématiques. Cependant, ces deux aspects ont joué un rôle fondamental dans l’histoire des mathématiques, et de nombreux mathématiciens, parmi lesquels Poincaré, ont insisté sur leur importance dans le développement et l’orientation des recherches mathématiques. Le développement de la théorie qualitative des systèmes dynamiques, qui a mené à la découverte du chaos déterministe, montre la persistance de cette tension entre différents points de vue sur la nature et la méthode mathématique. L’utilisation de diagrammes et de figures, le recours fréquent à l’ordinateur et à l’analyse numérique, l’inspiration physique (les analogies mathématiques dans la description de comportements complexes en hydrodynamique, en cinétique chimique, en mécanique et en électronique) ont un peu « pollué » les mathématiques pures, donnant naissance à ce que l’on pourrait appeler des « mathématiques expérimentales ».

Dans la seconde moitié du XXe siècle, l’étude des objets fractals, inaugurée par Benoît Mandelbrot, a fourni un autre exemple intéressant de recherches à contre-courant - qui ont également révélé des connexions avec les mathématiques du chaos. Mandelbrot reçut sa formation mathématique dans un centre d’enseignement de haut niveau, l’École normale supérieure de Paris. Par la suite, il partit vivre aux États-Unis et travailla dans le domaine de la recherche de la compagnie IBM. Son activité s’exerçant aux marges de la science universitaire, Mandelbrot avait une grande liberté pour explorer de façon autonome des questions mathématiques pas très « orthodoxes ». Il conçut un nouveau type de représentation géométrique développée en partie grâce à l’aide de l’ordinateur et susceptible d’être appliquée aux exemples naturels et sociaux les plus variés. L’un des premiers exemples qu’il a considéré concerne les oscillations du prix du coton sur le marché. Son objectif était de découvrir l’ordre et les lois qui sous-tendent une masse de données apparemment incohérentes. Mandelbrot mit en évidence la présence d’un type particulier de « symétrie » lié à l’invariance d’échelle. Il arrive que, dans un phénomène, on enregistre une structure à une échelle qui se répète à des échelles plus grandes ou plus petites. Par exemple, pour le prix du coton, la courbe de la fluctuation à l’échelle mensuelle et la courbe à l’échelle quotidienne sont semblables. D’autres exemples concernaient la distribution des mots, la distribution des grandes et des petites villes ou l’apparition d’un « bruit » perturbant dans les transmissions téléphoniques.

Mandelbrot considérait que ce nouveau point de vue pouvait éclairer des aspects du monde jusqu’à présent négligés. C’est ainsi qu’en 1967 il publia, dans la revue américaine « Science », un article devenu célèbre, dans lequel il se penchait sur la question suivante : quelle est la longueur de la ligne d’une côte découpée comme celle de la Bretagne ? Il parvenait à la conclusion qu’il n’était pas possible de fournir une réponse exacte. En effet, si nous procédons à une reconnaissance aérienne en survolant la côte à des altitudes différentes, les mesures obtenues seront différentes, puisque plus l’avion descend, plus sont visibles dans les photographies de nouveaux détails géographiques, baies, promontoires et caps. La précision augmente encore si nous mesurons la côte au moyen d’instruments de mesure situés directement sur Terre, et elle change en fonction de la longueur de l’instrument. Un nombre encore plus grand de détails sera présent dans le parcours (imaginaire) d’un escargot sur la ligne côtière. Ce processus, d’un point de vue mathématique, n’a pas de fin, et la longueur mesurée croît sans limites.

Selon le point de vue de Mandelbrot, les formes et les systèmes de mesure de la géométrie ordinaire ne sont pas adaptés aux formes et aux distributions irrégulières présentes dans le monde. Les mathématiciens, toutefois, avaient déjà décrit d’autres figures géométriques, considérées d’abord comme « monstrueuses » ou « pathologiques », qui reflétaient le nouveau type de régularité (la reproduction de la structure à des échelles de plus en plus petites) qui intéressait Mandelbrot. Un exemple qui rappelle celui de la ligne côtière fut proposé par von Koch. Vue de très loin, la figure semble celle d’un triangle équilatéral. Au fur et à mesure qu’on s’approche, on peut voir que chaque côté du triangle contient une petite « protubérance », ayant à son tour la forme d’un triangle équilatéral, puis que sur chacun des côtés de ces petits triangles se trouvent des protubérances identiques, et ainsi de suite:

 

 

 

On peut parvenir ainsi à une figure qui est une bonne image de ce que l’œil humain réussit à bien distinguer, mais en réalité le processus se poursuit à l’infini, et la véritable courbe est la « limite » de ce processus.

Le périmètre de cette courbe, dite courbe en flocon de neige, est infini. Mais elle a une particularité beaucoup plus significative dans sa structure. Il s’agit de ses dimensions. Puisque c’est une courbe, il semblerait qu’elle ne puisse être qu’unidimensionnelle. En effet, les lignes de la géométrie classique (droite, ellipse) sont toutes unidimensionnelles. Un petit être vivant au-dessus d’elles ne pourrait se mouvoir que dans une seule direction. Un plan ou une surface sont en revanche bidimensionnels, puisqu’il existe deux directions possibles de mouvement (longitudinalement ou en profondeur). Chacune des figures dessinées ci-dessus, qui sont des approximations de la courbe de Koch, est unidimensionnelle. Mais la « véritable » courbe, la courbe limite, présente des dimensions intermédiaires entre l’une et l’autre, c'est-à-dire qu’elle a une dimension fractionnaire.

Ce type de figures avait été proposé, au tournant des XIXe et XXe siècles, à une période où les mathématiciens menèrent de nombreuses enquêtes sur les fondements logiques de leur discipline. Il devint ainsi évident que l’idée de dimension, tout comme de nombreux autres concepts de mathématiques, même si elle a une base intuitive évidente, échappe à une définition rigoureuse. C’est ainsi qu’on proposa des cas limites, où l’intuition est d’un secours limité, et qui sont la meilleure démonstration de ces problèmes. Par exemple, le mathématicien italien Giuseppe Peano proposa un exemple de courbe qui « remplit un carré ». On peut également citer l’ensemble de Cantor (utilisé par Mandelbrot pour modéliser le problème de la perturbation des transmissions) et l’éponge de Sierpinski. Ces exemples donnèrent lieu à de nombreuses recherches sur le concept de dimension et naissance à différentes définitions, qui incluent la possibilité de valeurs fractionnaires. Si l’on utilise la définition la plus employée pour les ensembles fractals, que l’on doit à Hausdorff et à Besicovich, la dimension de la courbe de Koch est de 1,2618, tandis que, par exemple, celle de l’ensemble de Cantor est de 0,6309, à mi-chemin entre 0 et 1:

 

 

    

 

 

 

 

 

Mandelbrot obtint par la suite un grand nombre d’autres figures de ce genre, qu’il appela « fractales » (du latin fractus, c'est-à-dire « brisé », qui évoque aussi bien l’idée de fraction que celle de fracture, de fragmentation ou de découpure, caractéristique de ces formes). En 1977, Mandelbrot publia un livre intitulé Les objets fractals : forme, hasard et dimension, dans lequel il présentait la géométrie fractale comme un nouveau principe d’organisation de la nature, capable de mesurer d’autres qualités des figures, comme la rugosité, la découpure, l’irrégularité, les modalités selon lesquelles un objet remplit l’espace. Mandelbrot recourait à des exemples tirés de domaines très différents et faisait un large usage des possibilités graphiques de l’ordinateur.

Le comportement fractal d’un élément tiré du monde réel, comme la ligne côtière de la Bretagne, n’est pas aussi simple et prévisible que celui des figures mentionnées ci-dessus. Par la suite, Mandelbrot mena des recherches sur des fractales dans lesquelles le mode de reproduction change en permanence, et montra la présence d’irrégularités de type fractal dans les systèmes dynamiques complexes (c'est-à-dire dans les modèles mathématiques d’évolution temporelle dans lesquels sont impliqués les nombres complexes). Il partit de certaines idées des mathématiciens français Gaston Julia et Pierre Fatou, lesquels, toujours au début du XXe siècle, avaient exploré ces thèmes, même si leurs recherches avaient été entravées - comme dans le cas de Poincaré - par la difficulté de représenter les objets mathématiques décrits. Dans ce domaine également, les ordinateurs, de plus en plus sophistiqués, ont permis de faire avancer la recherche. L’une des premières figures obtenues par Mandelbrot - appelée précisément « ensemble de Mandelbrot » - illustre très bien le comportement autoreproducteur des fractales. Cet ensemble est étroitement lié au comportement de tous les systèmes dynamiques. Dans de nombreux exemples de dynamique chaotique, l’analyse qualitative met en évidence l’émergence de structures géométriques de type fractal.

Le livre de Mandelbrot, republié sous le titre La géométrie fractale de la nature, est devenu célèbre, et ses idées ont été adoptées dans des études de physiologie et d’astronomie, dans des recherches industrielles sur la structure des matériaux et sur les contacts entre surfaces. L’aspect graphique très spectaculaire, utilisé pour la création d’effets spéciaux cinématographiques à l’aide de l’ordinateur, a eu un impact remarquable. Toutefois, tous les chercheurs ne se sont pas enthousiasmés pour ces idées, et Mandelbrot est encore une figure aujourd’hui très controversée. Seul le développement des recherches pourra éventuellement confirmer l’importance réelle de la géométrie fractale.

 

 

COMPLEXITÉ

 

Les conclusions de Lorenz, tout comme celles d’autres chercheurs s’occupant de la dynamique non linéaire (en astronomie, en électricité, en écologie), n’eurent au début qu’une faible diffusion, entre autres parce que la science de la seconde moitié du XXe siècle a atteint un tel degré de spécialisation et produit une telle masse de résultats dans chaque domaine spécifique que la circulation des informations n’est pas toujours facile. En 1974, Li et York introduisirent le terme de « chaos » pour désigner le nouveau phénomène en question. Il s’agit d’un mot suggestif, qui évoque certaines catégories classiques de la pensée philosophique et scientifique : ordre, chaos, causalité, prédictions, déterminisme, hasard. Dans les années 80, ces nouveaux thèmes ont occupé une place importante sur la scène mathématique et scientifique, et ont provoqué de nombreuses descriptions concernant également des aspects de la philosophie de la science.

En effet, le monde philosophique s’est intéressé à ces problèmes, qui sont parvenus jusqu’au grand public, à travers des journaux et des livres de vulgarisation. En 1987, le journaliste américain James Gleick publia un livre intitulé La théorie du chaos, fondé sur un grand nombre d’interviews de savants opérant dans ces domaines de recherche, parmi lesquels Smale, Lorenz et Mandelbrot, et dans lequel il écrivait que « où commence le chaos, s’arrête la science classique ». Il affirmait que la science classique avait ignoré l’aspect irrégulier, discontinu et désordonné de la nature, des phénomènes comme la mer turbulente, le désordre de l'atmosphère, les variations des populations animales, les oscillations du cœur et du cerveau, considérés comme une énigme et même comme une monstruosité. Il ajoutait que la physique des particules, la reine de la science au XXe siècle, avait produit des théories sur les forces fondamentales de la nature et sur l’origine de l’Univers, mais ne nous disait rien sur les phénomènes à l’échelle humaine et sur le monde tel que nous le voyons dans l’expérience quotidienne. La physique théorique avait perdu le contact avec la représentation intuitive que les hommes ont du monde, et elle stagnait, puisqu’elle se limitait à développer les grandes conceptions des fondateurs de la relativité et de la mécanique quantique, sans produire des idées véritablement neuves.

De nombreux savants ont vu dans ces nouveaux développements une confirmation de ce qu’affirmait Poincaré, en rapprochant ce qui semblait le fruit du hasard d’une impossibilité d’obtenir des prévisions : « le déterminisme semble également renforcé par la possibilité d’étudier des structures dans lesquelles se produit le fait que de petites différences dans les conditions initiales génèrent de grandes différences dans les phénomènes finaux. » D’autres, en revanche, ont interprété la théorie du chaos comme une véritable révolution scientifique, voire comme un « scandale » philosophique, considérant que la découverte de processus imprévisibles dans les structures déterministes ferait exploser le déterminisme de l’intérieur. Le chaos montrerait que dans des systèmes complexes, comme les systèmes économiques ou biologiques, il existe une composante absolument non déterministe, « libre », qui affleure même dans les modèles conçus de façon strictement déterministe.

 

C’est précisément l’étude de phénomènes complexes qui semble être le défi fondamental pour de nombreux savants des dernières décennies du XXe siècle. Entre-temps, les mathématiques ont mis au point nombre de nouveaux instruments : la théorie des jeux (pour modéliser les situations d’équilibre stratégique et la prise de décisions), la théorie des catastrophes (pour modéliser les phénomènes caractérisés par de brusques discontinuités, dans le domaine biologique ou même socio-politique), la théorie de l’information et la cybernétique (qui modélisent des comportements animaux et humains sur la base de concepts caractéristiques de l’ingénierie, comme la communication et le contrôle), les systèmes dynamiques continus et discrets. L’instrument fondamental de ces recherches est l’ordinateur, qui permet de simuler l’évolution des systèmes complexes grâce à ses potentialités graphiques et de calcul, augmentées par des techniques de plus en plus sophistiquées d’informatique et d’analyse numérique.

« 2 des scientifiques, comme l’écrivit Ludwig von Bertalanffy dans sa Théorie générale des systèmes, publiée aux Etats-Unis en 1968.

Toutefois, malgré ces glissements dans les conceptions sur les méthodes et les fins de la recherche scientifique, il est un aspect qui est demeuré inchangé, et qui jouait et joue aujourd’hui encore un rôle fondamental : le rôle des mathématiques comme instrument principal de la connaissance scientifique. ÉQUATIONS DIFFÉRENTIELLES Considérons un dispositif physique - un système - très simple : une balle posée sur une table horizontale et jointe à une extrémité fixe 0 au moyen d’un ressort.

Nous savons bien que si l’on étire le ressort d’une certaine longueur, puis qu’on le lâche, la balle commencera d’osciller.

Le ressort est un exemple de corps élastique.

Le savant anglais Robert Hooke, après avoir réalisé de nombreuses expériences, énonça une loi sur le comportement des corps élastiques qui porte son nom : « Tout corps élastique déformé exerce une force proportionnelle et opposée à la déformation.

» Dans le développement de l’analyse mathématique de ce problème, les conditions sont encore simplifiées afin de souligner les aspects fondamentaux du mouvement déterminé par le phénomène élastique et d’écarter les aspects de moindre importance pour sa compréhension.

C’est ainsi que nous pouvons mesurer la masse de la balle (en grammes, par exemple), mais considérer comme négligeable la masse du ressort, c'est-à-dire supposer que cette masse est nulle (bien entendu, si cela était vrai dans la réalité, le ressort n’existerait pas et il n’y aurait pas de mouvement, ce qui représente un beau paradoxe !).

Nous pouvons aussi complètement ignorer le frottement, qui est pourtant présent dans les expériences réelles.

En outre, seul le déplacement longitudinal de la balle nous intéressera, si bien que, même si le système physique est placé dans l’espace réel à trois dimensions (longueur, largeur, profondeur) et que nous le dessinons schématiquement en deux dimensions (les dimensions de l’écran de l’ordinateur), nous le pensons en une seule dimension.

Pour ce faire, nous nous représentons la balle comme réduite à un point. On peut réaliser de nombreuses expériences avec des balles de poids différents (50 g, 100 g, etc.), avec des ressorts de matériaux plus ou moins élastiques, et en soumettant le ressort à un allongement initial de tailles différentes (de 3 cm ou de 10 cm, etc.).

Du point de vue mathématique, nous pouvons toutefois décrire en un seul système tous ces cas particuliers, et représenter de façon très générale les quantités par des lettres indiquant tant les quantités constantes que les quantités. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles