Devoir de Philosophie

L'ordinateur que l'on trouve aujourd'hui en grande surface est capable de performances qui auraient étonné les informaticiens des années soixante.

Publié le 16/11/2013

Extrait du document

L'ordinateur que l'on trouve aujourd'hui en grande surface est capable de performances qui auraient étonné les informaticiens des années soixante. En trente ans, non seulement les ordinateurs ont fait des progrès techniques considérables, mais encore ils ont pris place aussi bien dans la vie professionnelle, où ils sont omniprésents, que dans la vie familiale, où ils s'achètent comme n'importe quel objet. La banalisation de l'ordinateur, devenu un appareil comme un autre, contribue pour beaucoup à faire accepter de plus en plus largement l'informatique. La notion d'architecture de calcul, qui a ouvert la voie aux ordinateurs modernes, apparut avec la « machine analytique », dont Charles Babbage entreprit la conception en 1833, et qui faisait suite à sa « machine à différence ». Contrairement à celle-ci, la machine analytique était programmable, c'est-à-dire que l'ordre de ses opérations, au lieu d'être immuable, pouvait être modifié en fonction de résultats intermédiaires. Pour la première fois aussi, une distinction claire était effectuée entre traitements et données. Les plans - qui furent suivis d'une réalisation partielle, en 1906, par le fils de leur auteur - prévoyaient les organes suivants : processeur central de calcul (le « moulin »), unité de contrôle de l'enchaînement des opérations, mémoire (le « magasin »), entrée des données et des instructions par cartes perforées, circulation des données au moyen de tringleries à crémaillères, impression des résultats. Complétez votre recherche en consultant : Les corrélats Babbage Charles informatique - Histoire de l'informatique - Les automates - Le calcul automatique Historique Le travail prophétique de Babbage attendit un siècle pour trouver des successeurs, en l'occurrence les calculateurs des années trente et quarante, qui n'étaient pas encore des ordinateurs, soient parce qu'ils n'étaient pas programmables (comme le calculateur d'Atanasoff et Berry en 1939), soit parce qu'ils n'acceptaient qu'un programme externe introduit manuellement (comme l'Eniac d'Eckert et Mauchly, 1946). Complétez votre recherche en consultant : Les corrélats calcul électronique calculateur Eckert John Presper Eniac informatique - Histoire de l'informatique - Ordinateurs et informatique - Les calculateurs avant les ordinateurs Mauchly John W. La première génération d'ordinateurs. L'Eniac fournit l'inspiration et les résultats pratiques à partir desquels le mathématicien américain d'origine hongroise John von Neumann (1903-1957) élabora son First Draft of a Report on the Edvac de juin 1945 (Edvac était le nom d'un projet de calculateur pour l'armée américaine), qui fournissait à travers le concept de programme enregistré un cadre logique et théorique aux notions d'ordinateur et de programme. Le texte du programme était stocké en mémoire comme les données, l'organe de commande leur faisait subir des traitements de même nature, et l'exécution des instructions était séquentielle. Cette architecture est encore celle de la plupart des ordinateurs des années quatre-vingt-dix. Le premier ordinateur ne fut pas réalisé par l'équipe de von Neumann à Princeton, mais à Cambridge en Grande-Bretagne : l'Edsac (inspiré du plan de l'Edvac) fut présenté en mai 1949 à Manchester. Ces ordinateurs de la première génération (1949-1959) utilisaient des tubes à vide pour les circuits logiques et pour la mémoire des lignes à retard (Univac 1 de 1951, le premier ordinateur de gestion) ou des tubes électrostatiques (comme le premier ordinateur d'IBM, le 701 de 1953). Le Whirlwind construit au MIT de Cambridge entre 1946 et 1955 servit à réaliser le premier système informatisé de défense aérienne américain dès 1951 et inaugura de nombreuses innovations : en 1953, mémoire à tores de ferrite ; terminal graphique à tube cathodique ; utilisation interactive à distance ; documentation automatique ; commande de machines-outils. Le premier ordinateur français (Cuba) date de 1952. Complétez votre recherche en consultant : Les corrélats architecture des ordinateurs EDSAC (Electronic Delay Storage Automatic Calculator) informatique - Histoire de l'informatique - Ordinateurs et informatique - Le premier ordinateur Neumann (Johann ou John von) Les livres informatique - l'ordinateur Edsac, page 2517, volume 5 La seconde génération : les machines à transistors. Les transistors, inventés en 1947, permirent la réalisation de circuits plus rapides, plus fiables, moins chers et moins encombrants, et ainsi l'avènement en 1959 des ordinateurs de la seconde génération, dont les pionniers les plus caractéristiques furent l'Univac Larc de 1957, l'IBM 7030 « Stretch » et le Gamma 60 de Bull en 1960. Ces machines furent des échecs commerciaux, mais elles introduisirent des techniques d'avenir : multiprogrammation, canaux d'entrée-sortie, système d'interruptions, disques magnétiques en piles amovibles. Leurs successeurs, qui connurent plus de succès, furent l'IBM 7090 et 1401, le DEC-PDP-1 de 1962, la SEA-CAB 500 (française) de 1960 (premier mini-ordinateur de bureau, première architecture microprogrammable). L'échec du Gamma 60 fut à l'origine du déclin de Bull, absorbée en 1967 par General Electric, ce qui sonnait le glas de la première informatique française. Complétez votre recherche en consultant : Les corrélats Bull (compagnie des machines) IBM (International Business Machines Corporation) transistor Le rôle croissant du logiciel. Les ordinateurs devinrent plus faciles à utiliser grâce à l'apparition des langages de programmation universels (Fortran en 1954, Algol et Lisp en 1958, Cobol en 1959). Les programmes écrits pour un type de machine pouvaient désormais être plus facilement adaptés à une autre. La diversification croissante des organes de calcul et de commande, la complexité des traitements et le développement des logiciels rendaient nécessaire le renforcement des moyens de supervision, ce qui donna naissance au « système d'exploitation ». Au début, sa principale fonction était de permettre l'asynchronisme des entrées-sorties, de concert avec le système d'interruptions : il s'agissait de permettre la poursuite de l'exécution des calculs pendant une opération d'entrée-sortie, par nature considérablement plus lente. Les mêmes mécanismes permirent ensuite la multiprogrammation, c'est-à-dire le partage du temps du processeur en tranches attribuées à tour de rôle à des programmes utilisés apparemment simultanément. Ainsi, pendant qu'un programme attendait le résultat d'une opération d'entrée-sortie, le processeur - coûteux - pouvait être utilisé pour d'autres travaux. Ce procédé donna naissance aux systèmes de temps partagé interactif, par lesquels des dizaines de personnes (voire plus) derrière des terminaux se partagent un ordinateur en ayant l'impression d'en être le seul utilisateur. Le premier système de ce type fut CTSS, développé en 1961 au MIT sur IBM 709, puis 7090. Complétez votre recherche en consultant : Les corrélats Algol Cobol Fortran génie logiciel informatique - Histoire de l'informatique - Ordinateurs et informatique L'histoire des langages informatique - La science informatique - Les systèmes d'exploitation informatique - La technique informatique - Introduction langage de programmation Lisp processeur programmation - Le génie logiciel software système d'exploitation Troisième génération, ou seconde informatique ? La troisième génération peut être datée de 1964 et caractérisée par l'usage des circuits intégrés (inventés en 1958), qui réunissaient sur un même substrat physique alternant des couches conductrices et isolantes des transistors, des amplificateurs, des résistances et des circuits de connexion réalisés par des dépôts de matière conductrice ou isolante gravés par des procédés chimiques (une usine électronique de l'époque ressemblait à un immense laboratoire photographique). En fait, avec le recul, il paraît plus pertinent de constater l'apparition d'une seconde informatique, constituée par la rencontre entre un type d'industrialisation, doté de capacités prodigieuses de miniaturisation et de vitesse (un facteur 2 tous les cinq ans pendant plus de quarante ans), et des méthodes de production du logiciel, devenues une discipline autonome pour faciliter la communication entre l'homme et la machine. Le symbole de cette seconde informatique à ses débuts reste la série IBM 360. Cette famille cohérente d'ordinateurs couvre une large gamme de puissances avec des machines d'architectures variées, mais dont l'utilisation est rendue uniforme grâce à la microprogrammation et au système d'exploitation qui présentent au programmeur une machine virtuelle affranchie des détails techniques de réalisation. Au début des années quatre-vingt-dix, les gros ordinateurs d'IBM reposaient encore sur l'architecture 360. L'apogée de cette informatique centralisée autour de grosses machines absorbant la plus grande part des activités de gestion des entreprises eut lieu dans les années soixante-dix. Les systèmes de temps partagé ou de traitement interactif ont tempéré l'aspect industriel de cette conception de la gestion, en permettant le dialogue entre l'homme et la machine. Complétez votre recherche en consultant : Les corrélats électronique - Les applications industrielles de l'électronique - Les techniques numériques IBM (International Business Machines Corporation) informatique - Histoire de l'informatique - Ordinateurs et informatique L'histoire des architectures Les médias ordinateur - La puissance des ordinateurs a-t-elle une limite ? Microprocesseur et micro-informatique. La technique des circuits intégrés aboutit logiquement, en 1970, à la fabrication par les sociétés Fairchild et Intel des premières mémoires monolithiques, progrès considérable puisqu'il permit une production automatisée (les mémoires à tores étaient assemblées à la main). En 1971, Intel lança le premier microprocesseur, une unité centrale complète en un seul composant, certes encore lente et peu puissante. Mais ce fut une véritable révolution économique, qui ouvrit la voie à des ordinateurs suffisamment petits par la taille et le prix pour être installés dans des bureaux ou intégrés dans des machines ou des appareils variés. À la fin des années soixante-dix, la micro-informatique constituait une réalité tangible, avec l'essor de firmes comme Tandy ou Apple (créée en 1977). Ce secteur trouva une « légitimité » avec l'arrivée d'IBM en 1982, qui lui retira partiellement son image ludique et l'accrédita comme outil de travail sérieux. Depuis cette date, plusieurs dizaines de millions de micro-ordinateurs ont été vendus dans le monde pour les usages les plus variés, et ils ont représenté dès 1990 plus de 20 % du marché de l'informatique. Aujourd'hui, les microprocesseurs atteignent des puissances considérables et constituent le coeur de tous les ordinateurs, sauf les très gros. Complétez votre recherche en consultant : Les corrélats Apple Computer Incorporated - Une stratégie originale bureautique IBM (International Business Machines Corporation) informatique - Économie de l'informatique - La micro-informatique informatique - La technique informatique - De l'informatique distribuée à la bureautique Intel logiciel micro-ordinateur microprocesseur PC (personal computer) progiciel software système d'exploitation tableur traitement de texte Les livres informatique - l'ordinateur domestique, page 2523, volume 5 ordinateur - un microprocesseur, page 3610, volume 7 ordinateur - le Macintosh Performa d'Apple, page 3610, volume 7 ordinateur - l'Aptiva d'IBM, page 3611, volume 7 Superordinateurs et architectures futuristes. Outre la centralisation administrative, certaines applications de l'informatique demandent de très grandes puissances de calcul : physique des hautes énergies, météorologie, mécanique des fluides, modélisation moléculaire. Ces calculs se réduisent généralement à des opérations sur des vecteurs, c'est-à-dire des séries de nombres qui doivent tous subir la même opération arithmétique élémentaire. Pour ce faire, une entorse à l'architecture de von Neumann a été imaginée : elle consiste à effectuer simultanément (ou presque) ces opérations élémentaires. Les ordinateurs conçus à cet effet sont des ordinateurs vectoriels, ou superordinateurs, dotés d'une ou plusieurs unités vectorielles à côté d'unités « scalaires » classiques. Le précurseur de cette technique a été la société Cray, fondée en 1972, dont le premier ordinateur est sorti en 1976. L'avenir de ces techniques se situe dans le parallélisme massif illustré par la Connection Machine (de Thinking Machines Corporation). Complétez votre recherche en consultant : Les corrélats informatique - La technique informatique - La grande informatique mini-ordinateur Les livres ordinateur - l'ordinateur Cray, page 3608, volume 7 ordinateur - central téléphonique, à Mexico, page 3609, volume 7 Complétez votre recherche en consultant : Les corrélats intelligence artificielle - L'intelligence artificielle, concept philosophique ou technique opératoire ? intelligence artificielle - Nouveaux ordinateurs et nouveaux langages programmation Les livres informatique - ordinateur ETA de Control Data, page 2517, volume 5 La technique des ordinateurs Si l'évolution des ordinateurs se fit dans le sens d'une complexité, d'une spécialisation, d'une puissance et d'une capacité de traitement accrues, il n'y a pas de différence fondamentale entre l'Edsac (le premier ordinateur) et les plus puissants des Cray ou les plus sophistiqués des micro-ordinateurs IBM. Le squelette logique. Les données à traiter par l'ordinateur sont de nature quelconque : grandeurs physiques comme les relevés de température ou les spectres d'étoiles, grandeurs monétaires, textes littéraires ou techniques, signaux de capteurs de rythme cardiaque, etc. Il en est de même des résultats : états financiers, pages composées, rapports de calcul, commandes de machines-outils, etc. Dans tous les cas, les données et les résultats sont représentés sous forme binaire. Les traitements, même les plus complexes, se réduisent tous à des séquences d'opérations numériques et logiques élémentaires qu'on sait effectuer sur les nombres binaires. Selon l'architecture de von Neumann, le problème à traiter est décrit sous forme d'instructions, que l'on insère dans le flot des données. Les données comprennent donc implicitement les données proprement dites et le programme lui-même. Autrement dit, un ordinateur est capable de traiter tout problème dont les données et les résultats peuvent être représentés par des suites de 0 et de 1, et dont la résolution peut se ramener à des opérations formelles sur ces 0 et 1. Bien entendu, les progrès de l'informatique font que plus aucun problème ne s'exprime sous cette forme. Il n'en reste pas moins que c'est bien en réponse à ce squelette logique que sont construits les ordinateurs. Complétez votre recherche en consultant : Les corrélats binaire (numération) codage codage - Le codage binaire informatique - La science informatique - Les structures d'information Le squelette matériel. Les ordinateurs sont des machines électroniques qui traitent des signaux binaires représentant les nombres binaires 0 et 1. Le type de signal a pu varier, mais il s'agit toujours de signaux à deux états : positif ou négatif, plus grand ou plus petit qu'un seuil de tension, présence ou absence de courant, etc. Tout ordinateur dispose d'organes d'entrée-sortie, qui convertissent les données fournies par l'utilisateur humain en signaux binaires, lesquels, après traitement, sont convertis en résultats sous une forme compréhensible par l'utilisateur humain. Les données, une fois transformées en informations, doivent être conservées dans la machine au moins le temps du traitement. De la même manière, il faut conserver les résultats au moins jusqu'au moment où ils sont mis à la disposition de l'utilisateur sur l'organe de sortie. La mémoire est l'un des composants nécessaires d'un ordinateur. Il y a au moins deux niveaux de mémoire dans un ordinateur : celle qui est chargée avec le programme et les données pendant la durée du traitement, et la mémoire de masse. La première est une mémoire volatile, qui ne conserve les informations que tant qu'elle est alimentée en électricité. On l'appelle parfois mémoire vive et c'est à elle que l'on se réfère lorsqu'on parle de mémoire sans autre qualificatif. Comme il serait totalement inefficace d'avoir à entrer les données et le programme à chaque utilisation de l'ordinateur, une mémoire de masse permet d'enregistrer de façon permanente les informations qu'on souhaite conserver. Le traitement est effectué par un organe spécialisé, qui exécute les instructions du programme. C'est le rôle de ce que l'on nomme souvent processeur, ou unité centrale. Les instructions du programme, comme les données proprement dites, sont stockées dans la mémoire, au moins le temps du traitement. Les différents composants de l'ordinateur doivent communiquer entre eux. Ils le font par l'intermédiaire de bus, de canaux spécialisés ou non, mais dont la fonction est toujours d'être des voies de transport de l'information d'un organe à l'autre. Pour que l'ensemble puisse travailler efficacement, il faut assurer une synchronisation des différents organes de l'ordinateur. C'est le rôle de l'unité de contrôle. Enfin, un ordinateur est un appareil électronique. Il lui faut une alimentation électrique. Complétez votre recherche en consultant : Les corrélats binaire (numération) bus disque dur entrée-sortie (E/S) interface mémoire - 2.INFORMATIQUE microprocesseur processeur unité centrale Les composants d'un ordinateur. Les composants effectifs d'un ordinateur d'aujourd'hui sont extrêmement variés et complexes. Ils sont, de plus, adaptés pour répondre à la fois aux besoins de standardisation et de spécialisation. Il est en effet fastidieux d'avoir à retrouver des automatismes lorsqu'on passe d'un clavier « Qwerty » américain à un clavier « Azerty » français, sans parler du clavier « Qwerty » canadien-français, ou de travailler avec un écran plus large que haut, qui ne fait apparaître qu'une partie de la page. La standardisation, qui permet de passer d'une machine à l'autre sans avoir à tout réapprendre, et la spécialisation, qui permet d'être le plus efficace possible dans une application donnée, ne sont malheureusement pas toujours compatibles. Les organes qui permettent l'entrée des données dans l'ordinateur sont de plusieurs types. On peut distinguer les organes interactifs, les organes séquentiels et les organes en temps réel. Les organes interactifs sont ceux que l'utilisateur manipule directement : le clavier, la souris, la tablette graphique, l'unité à commande vocale, etc. Les organes séquentiels comportent un dispositif qui lit des données stockées sur un support qui varie d'un dispositif à l'autre. Parmi ces dispositifs figurent notamment les lecteurs de rubans perforés, de cartes perforées, les innombrables lecteurs de bandes magnétiques, de disques et disquettes, de CD-ROM, les scanners et les lecteurs optiques, les dispositifs de numérisation vidéo, etc. Les organes en temps réel relèvent, pour la plupart, de l'informatique industrielle : acquisition de données provenant d'un satellite d'observation militaire, d'un accélérateur nucléaire, etc. Dans cette catégorie, on peut ranger les modems et autres appareils qui permettent la connexion aux réseaux locaux ou internationaux. Les organes de sortie permettent de visualiser ou d'enregistrer sur des supports variés le résultat de programmes informatiques. Les écrans de visualisation, en noir et blanc ou en couleur, de précision plus ou moins grande, sont devenus l'organe de sortie indispensable. Ils permettent notamment une visualisation immédiate des actions commandées par les organes d'entrée interactifs. Les imprimantes à impact, à laser, ou à jet d'encre permettent de fixer sur le papier, en noir et blanc ou en couleur, l'image de ce qui apparaît à l'écran. À cet égard, l'informatique est devenue un outil d'édition, se substituant, avec efficacité, aux anciennes techniques des industries de l'imprimerie. Les tables traçantes remplacent les dessinateurs penchés sur leurs tables à dessin, allant jusqu'à offrir la possibilité de graver directement des circuits imprimés. Les systèmes multimédias ont des capacités de synthèse vocale qui leur permettent de remplacer des phrases affichées sur un écran de visualisation par un message sonore en langue pseudo-naturelle. Symétriquement, à l'entrée des données à partir de supports divers, il est possible d'enregistrer les résultats des traitements informatiques sur ces mêmes supports, à des fins de stockage, d'archivage ou d'échange. Enfin, il est possible de commander directement des machines-outils ou d'envoyer des informations sur des réseaux informatiques. La mémoire est peut-être ce qui a le moins varié dans sa constitution, au moins depuis l'apparition des mémoires à semi-conducteurs. Seules les performances et l'intégration ont fait l'objet d'améliorations considérables. Les mémoires consomment de moins en moins d'électricité ; elles ont une capacité de plus en plus grande sous un volume de plus en plus réduit et sont de plus en plus rapides. Les puces courantes de mémoire des micro-ordinateurs ont une capacité de plus de 2 méga-octets, ou Mo (1 Mo = 1 024 × 1 024 octets), et un temps d'accès de moins de 70 nanosecondes (ns). Les mémoires de masse recouvrent désormais quelques catégories peu nombreuses. Les disquettes ont supplanté tous les autres supports pour les données « transportables ». On commence à voir apparaître des disquettes où le support magnétique est remplacé par un support magnéto-optique. Les disquettes courantes ont des capacités de quelques Mo (typiquement 1,44 Mo, voire 2,88 Mo). Les disquettes magnéto-optiques dépassent les 100 Mo. Les disques durs se caractérisent par des capacités et des performances de plus en plus grandes, tandis que la taille diminue. Il est fréquent, aujourd'hui, sur des ordinateurs somme toute assez classiques, d'atteindre des capacités de stockage de 1 ou 2 gigaoctets (soit d'1 milliard - l'équivalent d'une bibliothèque de 1 000 livres de 200 pages - à 2 milliards d'octets), avec des temps d'accès d'une dizaine de millisecondes (ms). La miniaturisation mécanique permet de telles performances : le diamètre des plateaux magnétiques est de 3" 1/2 (environ 9 cm). Les bandes magnétiques conservent leur utilité dans les grandes applications, surtout pour des raisons d'économie. Elles sont de plus en plus concurrencées par les cartouches à bandes magnétiques. Certaines de celles-ci, homologues des DAT (Digital Audio Tape) de la hi-fi, permettent de stocker près de 2,3 Go. Le domaine privilégié de ces cartouches est la mémoire de troisième niveau, c'est-à-dire la sauvegarde des disques durs de grande capacité. Ces organes ont connu des progrès spectaculaires quant à leur puissance, leur vitesse, leur spécialisation, leur intégration et leur économie de fonctionnement. Quelle que soit l'architecture, RISC (Reduced Instruction Set Computer) ou CISC (Complex Instruction Set Computer), à très haute intégration ou à composants discrets, on atteint les limites de la technique électronique. Les fréquences auxquelles travaillent les plus récents processeurs (200 MHz) créent de tels rayonnements électromagnétiques que le coût des écrans de protection contre ces rayonnements commence à représenter une part non négligeable du coût des machines, sans parler des composants électroniques eux-mêmes (résistances, condensateurs, etc.), qui doivent être capables de travailler à ces fréquences. La chaleur produite dans les circuits à très haute intégration est telle qu'elle peut faire fondre les connexions internes (la largeur des pistes est de l'ordre du micromètre), les matériaux d'enrobage n'étant pas capables de l'évacuer. L'alimentation électrique est un composant bien connu en électrotechnique. Cependant, elle doit être conçue avec soin et parfaitement adaptée aussi bien à sa fonction - alimenter l'ordinateur - qu'à la source de courant, notamment être capable de pallier les imperfections de celle-ci. Les dispositifs adéquats existent, mais ils sont toujours coûteux. Dans la micro-informatique, en particulier, où les fabricants cherchent toujours l'économie, l'alimentation est souvent négligée, ce qui peut créer de graves déboires. Des alimentations de sauvegarde existent, mais elles coûtent parfois aussi cher que le micro-ordinateur lui-même. Complétez votre recherche en consultant : Les corrélats carte perforée CD-ROM (Compact Disc Read Only Memory) et CDI (Compact Disc Interactif) disque dur disque optique numérique (DON) disquette écran édition - L'édition électronique entrée-sortie (E/S) hardware imprimante interface lecteur mémoire - 2.INFORMATIQUE micro-ordinateur microprocesseur m odem multimédia (système) octet périphérique réseau local réseaux informatiques scanner - 1.INFORMATIQUE station de travail table traçante tablette graphique unité centrale Complétez votre recherche en consultant : Les corrélats portable Les livres interface, page 2542, volume 5 ordinateur - composants d'ordinateurs, page 3608, volume 7 ordinateur - schéma de principe d'un ordinateur, page 3609, volume 7 ordinateur - unité de disque dur, page 3611, volume 7 ordinateur - un disque amovible, page 3611, volume 7 ordinateur - une imprimante à laser, page 3612, volume 7 ordinateur - le système spécialisé Docutech de Rank Xerox, page 3612, volume 7 ordinateur - fabrication de composants électroniques, page 3613, volume 7 ordinateur - barrettes mémoires, page 3613, volume 7 Les ordinateurs du futur On voit régulièrement apparaître des projets d'ordinateurs fondés sur d'autres techniques que celle de l'électronique. Les ordinateurs biologiques ou optiques défraient régulièrement la chronique scientifique. Rien ne permet d'affirmer que ce ne sont pas les ordinateurs du futur. Pourtant, il faut bien admettre aujourd'hui qu'il s'agit plus de spéculations que de développements plausibles, même si de très grands laboratoires de recherche y consacrent des ressources importantes, y compris chez les grands constructeurs d'ordinateurs. Presque tous les développements contemporains, raisonnablement susceptibles d'aboutir à de nouvelles machines, ne sont guère que des prolongements des techniques actuelles, réorganisées, redistribuées à l'intérieur des machines. Qu'il s'agisse des machines à architecture massivement parallèle ou des réseaux neuronaux, on ne sait pas s'écarter de l'électronique héritée de George Boole. Seule, peut-être, la notion d'architecture de von Neumann est remise en cause : données proprement dites et instructions de programme ne coexistent plus toujours au sein du même composant. En outre, si l'on sait parfois construire de telles machines, on ne sait pas vraiment les programmer comme on sait le faire pour nos ordinateurs actuels. Complétez votre recherche en consultant : Les corrélats informatique - La science informatique - L'architecture des ordinateurs Complétez votre recherche en consultant : Les corrélats cybernétique Les indications bibliographiques P. Breton, Une histoire de l'informatique, La Découverte, Paris, 1990 (1987). J.L. Hennesy et D.A. Patterson, (traduction D. Étiemble), Architecture des ordinateurs, une approche quantitative, IT Publishing France, Paris, 1996. J. Prinz, le Génie logiciel, PUF, « Que sais-je ? », Paris, 1995. M. Rouquerol, les Micro-ordinateurs, PUF, Paris, 1995.

« pour les circuits logiques et pour la mémoire des lignes à retard (Univac 1 de 1951, le premier ordinateur de gestion) ou des tubes électrostatiques (comme le premier ordinateur d'IBM, le 701 de 1953).

Le Whirlwind construit au MIT de Cambridge entre 1946 et 1955 servit à réaliser le premier système informatisé de défense aérienne américain dès 1951 et inaugura de nombreuses innovations : en 1953, mémoire à tores de ferrite ; terminal graphique à tube cathodique ; utilisation interactive à distance ; documentation automatique ; commande de machines-outils.

Le premier ordinateur français (Cuba) date de 1952. Complétez votre recherche en consultant : Les corrélats architecture des ordinateurs EDSAC (Electronic Delay Storage Automatic Calculator) informatique - Histoire de l'informatique - Ordinateurs et informatique - Le premier ordinateur Neumann (Johann ou John von) Les livres informatique - l'ordinateur Edsac, page 2517, volume 5 La seconde génération : les machines à transistors. Les transistors, inventés en 1947, permirent la réalisation de circuits plus rapides, plus fiables, moins chers et moins encombrants, et ainsi l'avènement en 1959 des ordinateurs de la seconde génération, dont les pionniers les plus caractéristiques furent l'Univac Larc de 1957, l'IBM 7030 « Stretch » et le Gamma 60 de Bull en 1960.

Ces machines furent des échecs commerciaux, mais elles introduisirent des techniques d'avenir : multiprogrammation, canaux d'entrée-sortie, système d'interruptions, disques magnétiques en piles amovibles.

Leurs successeurs, qui connurent plus de succès, furent l'IBM 7090 et 1401, le DEC-PDP-1 de 1962, la SEA-CAB 500 (française) de 1960 (premier mini-ordinateur de bureau, première architecture microprogrammable).

L'échec du Gamma 60 fut à l'origine du déclin de Bull, absorbée en 1967 par General Electric, ce qui sonnait le glas de la première informatique française. Complétez votre recherche en consultant : Les corrélats Bull (compagnie des machines) IBM (International Business Machines Corporation) transistor Le rôle croissant du logiciel. Les ordinateurs devinrent plus faciles à utiliser grâce à l'apparition des langages de programmation universels (Fortran en 1954, Algol et Lisp en 1958, Cobol en 1959).

Les programmes écrits pour un type de machine pouvaient désormais être plus facilement adaptés à une autre.

La diversification croissante des organes de calcul et de commande, la complexité des traitements et le développement des logiciels rendaient nécessaire le renforcement des moyens de supervision, ce qui donna naissance au « système d'exploitation ».

Au début, sa principale fonction était de permettre l'asynchronisme des entrées-sorties, de concert avec le système d'interruptions : il s'agissait de permettre la poursuite de l'exécution des calculs pendant une opération d'entrée-sortie, par nature considérablement plus lente.

Les mêmes mécanismes permirent ensuite la multiprogrammation, c'est-à-dire le partage du temps du processeur en tranches attribuées à tour de rôle à des programmes utilisés apparemment simultanément.

Ainsi, pendant qu'un programme attendait le résultat d'une opération d'entrée-sortie, le processeur – coûteux – pouvait être utilisé pour d'autres travaux.

Ce procédé donna naissance aux systèmes de temps partagé interactif, par lesquels des dizaines de personnes (voire plus) derrière des terminaux se partagent un ordinateur en ayant l'impression d'en être le seul utilisateur.

Le premier système de ce type fut CTSS, développé en 1961 au MIT sur IBM 709, puis 7090.. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles