Devoir de Philosophie

Les ordinateurs (Sciences & Techniques)

Publié le 22/02/2012

Extrait du document

L'ordinateur personnel ou domestique (PC) s'est développé au début des années 1980 grâce à l'essor des microprocesseurs et à la diminution des coûts de fabrication. En moins d'une décennie, le PC a envahi le marché et est devenu indispensable aux professionnels, aux étudiants ainsi qu'à toute la famille. C'est au cours de la Seconde Guerre mondiale que l'ordinateur - jusqu'alors cantonné à des opérations de calcul expérimental - a dévoilé tout son potentiel. À l'époque, les chercheurs britanniques, américains et allemands s'étaient attelés au problème critique du codage et du décodage des messages secrets, une technologie qui allait peser sur l'issue de la guerre : en effet, c'est notamment grâce au décryptage des messages envoyés aux sous-marins nazis que les Alliés purent les localiser et les neutraliser. Les ordinateurs développés pour l'occasion s'avérèrent très utiles pour d'autres applications militaires faisant appel à de longues séries de calculs, en particulier le calcul des trajectoires en artillerie et en balistique ainsi que le téléguidage des missiles, sans compter la simulation des comportements mécaniques ou électriques d'un système avant même sa construction.

« L'ordinateur à domicile La révolution informatique s'est faite en plusieurs étapes, de l'invention des premiers ordinateurs à tubes vers la finde la Seconde Guerre mondiale à la miniaturisation permise par l'introduction du transistor, en 1958, puis par la miseau point des circuits intégrés, en 1964.

Un an plus tard, les premiers ordinateurs en série étaient fabriqués par lafirme américaine Digital Equipment.L'informatique sortait dès cet instant du monde des laboratoires les plus avancéspour faire son apparition dans le monde du travail : la bureautique était née.

En 1980, la miniaturisation accrue etaccélérée des différentes machines, conjuguée avec la chute des coûts et avec l'amélioration exponentielle desperformances, permettent à l'ordinateur de devenir un produit de consommation pour le grand public.

C'est ainsi quela société américaine IBM sortait en 1979 son modèle PC (Personal Computer), concurrencé quelques mois plus tardpar Apple (qui lança par la suite le Macintosh), conçu dans un garage par une équipe de jeunes technicienscaliforniens. IBM contre Apple L'invasion du marché par les petits ordinateurs de série se poursuivit tout au long des années 1980.La concurrenceéconomique entre IBM-PC et Apple-Macintosh se doubla d'une concurrence technologique, chaque sociétédéveloppant son propre système de langage machine (terme qui désigne le logiciel ou programme qui assure lefonctionnement interne de l'ordinateur). Cet essor de deux systèmes concurrents sur le marché s'est poursuivi jusqu'à nos jours, mais les différences et lesproblèmes de compatibilité entre les deux systèmes sont en cours de disparition : les logiciels et les fichiers sont deplus en plus facilement traduisibles d'un langage à l'autre et l'interaction des deux systèmes ne cesse d'augmenter.Aujourd'hui, des modèles d'ordinateurs personnels à double système de langage machines, acceptant aussi bien leslogiciels PC que Macintosh, sont commercialisés. La puissance des ordinateurs La puissance d'un ordinateur se mesure à sa vitesse de travail, c'est-à-dire à son aptitude à stocker des données età les traiter rapidement, et dépend de deux facteurs : la capacité de mémoire vive de l'ordinateur et la rapidité deson microprocesseur. La mémoire vive d'un ordinateur (ou RAM, abréviation signifiant Random Access Memory ) est la partie de la mémoire qui stocke et traite les données et les logiciels fournis par l'utilisateur.

Elle se mesure généralement encentaines de kilobytes (en langage binaire, un kilobyte équivaut à mille mots d'information). La vitesse de traitement dépend du microprocesseur et de ses circuits intégrés périphériques.

Un microprocesseurest la centrale de logique qui lit le code de fonctionnement d'un programme et appelle les données dans l'ordreassigné pour opérer sur elles un calcul ou un envoi à une autre adresse dans la mémoire.

Cette fonction électroniquese déroule à la vitesse à laquelle on peut moduler des signaux électriques (c'est la fréquence de fonctionnementexprimée en hertz) et les acheminer à travers les circuits.

On comprend que plus les trajets à effectuer par lesélectrons du signal sont courts, plus le temps de traitement est bref : c'est pour cette raison que l'on assiste à unecourse à la miniaturisation des processeurs.

Véritables "gares de triage" microscopiques, les microprocesseurs sontconçus pour accepter et traiter les signaux électroniques en paquets, la logique de trains standard de huit signaux(8 bits) ayant été retenue au départ. Le premier microprocesseur à huit bits d'usage général, l'Intel 8080, introduit sur le marché en 1973, traitait ainsi lessignaux électriques rassemblés en paquets de 8 bits.

Extrêmement performant pour l'époque, il consistait en unassemblage de 4500 composants placés sur une minuscule "puce" de silicium et capable d'additionner deux nombresde trois chiffres en moins de trois millionièmes de seconde. Homme contre machine Un bond en avant fut accompli par la firme Hewlett-Packard, en 1981, quand elle produisit un nouveau modèle,appelé Superchip, qui était conçu pour traiter les paquets d'information par trains de 32 bits.

Ce plus grand volumed'informations par opération permettait de multiplier la vitesse.En 1981, le Superchip pouvait additionner cette foisdeux nombres à neuf chiffres en moins de deux millionièmes de seconde, soit six fois plus vite que son prédécesseur. Aussi impressionnantes qu'elles soient, ces vitesses sont loin d'être infinies : au début des années 1980, quand ellesfirent leur apparition chez le particulier, les machines de traitement de texte étaient relativement lentes et d'unusage complexe.

Mais ce sont ces premiers ordinateurs personnels, tels le Commodore 8032 avec ses 32 kilobytesde mémoire vive, qui finirent par supplanter la machine à écrire. Les machines de cette génération étaient limitées par leur faible capacité de mémoire qui ne permettait pas destocker de longs programmes : ces derniers étaient donc courts et simples, n'offrant que des fonctionsrudimentaires.

En outre, une fois le programme chargé, le peu de mémoire vive qui restait disponible à l'ordinateurpour effectuer ses opérations se traduisait par de fréquentes erreurs des systèmes.

Cette limitation des premiers. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles