Devoir de Philosophie

codage.

Publié le 25/10/2013

Extrait du document

codage. n.m., opération qui consiste à représenter les éléments d'un message par les signaux d'un code. Elle permet à deux dispositifs de traitement de l'information d'échanger des messages. Un message est une représentation interne à l'un des dispositifs. Un signal est une modification de l'environnement qui peut être produite par l'un des deux dispositifs et détectée par l'autre. Un code élémentaire, comme le morse, consiste en une simple liste de couples message-signal. L'ensemble des éléments du message est dit l'ensemble codé, et l'ensemble des signaux, le jeu de codes. On peut emprunter à Claude Shannon (créateur de la Théorie de l'information, 1948) la représentation qu'il a donnée de la communication de messages codés (voir schéma page suivante). Ce diagramme illustre la façon dont un message provenant d'une source d'information peut être reproduit à une destination donnée grâce à un processus de communication. Il s'applique particulièrement à des domaines comme les télécommunications (pour lesquelles il a été conçu) ou l'informatique, puisque la circulation d'information à l'intérieur des ordinateurs ou entre ordinateurs lui obéit. Il est beaucoup plus hasardeux d'utiliser ce modèle du code dans le domaine de la communication verbale entre les êtres humains, bien que la tradition en remonte à Aristote, qui soutenait que « les sons de la parole sont des symboles des affections de l'âme « ( De l'interprétation) et à Arnaud et Lancelot ( Grammaire de Port-Royal). La théorie sémiotique, selon laquelle les langues humaines seraient des codes qui associeraient des pensées à des sons, est aujourd'hui contestée par certains spécialistes de psychologie cognitive. La communication entre humains fait appel à beaucoup d'éléments qui ne peuvent pas entrer dans le cadre de la théorie de l'information, comme les éléments du contexte, et notamment le fait que l'homme ait un corps. Cependant, pris dans une acception plus large, le terme « codage « peut également désigner en sciences humaines une méthode permettant de traiter rigoureusement tous les messages (il s'agit alors de les décomposer en un certain nombre de variables qui feront l'objet d'un traitement informatique). Ainsi, des interactions de face-à-face et énoncés verbaux, où l'on souhaite repérer les récurrences d'attitudes ou de comportements, peuvent être approchés et traités à partir des déplacements dans un espace restreint, des façons d'engager une conversation ou encore des phases de la discussion. Le codage binaire. Les principes des ordinateurs modernes reposent sur l'algèbre de George Boole (18151864) et sur le codage binaire inventé par Francis Bacon (1561-1626). En effet, si l'on code les nombres en numération binaire, ils peuvent être représentés par des chaînes de contacts ouverts ou fermés, et l'on peut utiliser les opérations de l'algèbre de Boole (ET, OU, NON) pour modéliser les opérations arithmétiques élémentaires. Les circuits permettant de réaliser ces opérations sont simples à concevoir, par exemple avec des transistors. Les informations non numériques seront représentées grâce à l'assignation à chaque caractère de l'alphabet d'une valeur numérique (selon le code Ascii, par exemple), ce qui permettra le codage de textes. La simplicité des circuits logiques propres à traiter les informations codées en binaire a permis l'essor de l'informatique. Complétez votre recherche en consultant : Les corrélats informatique - Histoire de l'informatique - La logique formelle - L'origine de la logique ordinateur - La technique des ordinateurs - Le squelette logique Codage et transmission de données. Une fois admis les principes du codage, il reste à résoudre le problème matériel de la circulation de signaux électriques dans les circuits internes des ordinateurs ou sur les lignes de communication entre eux. Un signal binaire peut être représenté par un courant donné si sa valeur est 1, et par une absence de courant si elle est 0. Mais la propagation de tels signaux le long d'un circuit sera accompagnée d'une atténuation qui rendra difficile de décoder les transitions entre les 0 et les 1. La solution de ce problème réside dans la théorie des transformations de Fourier, qui postule que toute fonction périodique peut être décomposée en une somme de sinus et de cosinus, et qu'à partir de cette série (les harmoniques) on peut reconstruire la fonction initiale (le signal). Harry Nyquist, en 1924, et Claude Shannon, en 1948, ont déterminé le débit maximal d'un canal transportant des signaux compte tenu de sa largeur de bande (les fréquences admises) et de la fréquence d'échantillonnage nécessaire au décodage sans erreur. Complétez votre recherche en consultant : Les corrélats ASCII (American Standard Code for Information Interchange) binaire (numération) Boole George code - 2.LINGUISTIQUE cryptage Fourier (baron Joseph) informatique - Histoire de l'informatique - La logique formelle - L'origine de la logique message Morse Samuel Finley Breese ordinateur - La technique des ordinateurs - Le squelette logique sémiotique signe - 2.LINGUISTIQUE, SÉMIOTIQUE Les médias Morse - le code Les livres codage, page 1156, volume 3

« logique ordinateur - La technique des ordinateurs - Le squelette logique Codage et transmission de données. Une fois admis les principes du codage, il reste à résoudre le problème matériel de la circulation de signaux électriques dans les circuits internes des ordinateurs ou sur les lignes de communication entre eux.

Un signal binaire peut être représenté par un courant donné si sa valeur est 1, et par une absence de courant si elle est 0.

Mais la propagation de tels signaux le long d'un circuit sera accompagnée d'une atténuation qui rendra difficile de décoder les transitions entre les 0 et les 1.

La solution de ce problème réside dans la théorie des transformations de Fourier, qui postule que toute fonction périodique peut être décomposée en une somme de sinus et de cosinus, et qu'à partir de cette série (les harmoniques) on peut reconstruire la fonction initiale (le signal).

Harry Nyquist, en 1924, et Claude Shannon, en 1948, ont déterminé le débit maximal d'un canal transportant des signaux compte tenu de sa largeur de bande (les fréquences admises) et de la fréquence d'échantillonnage nécessaire au décodage sans erreur. Complétez votre recherche en consultant : Les corrélats ASCII (American Standard Code for Information Interchange) binaire (numération) Boole George code - 2.LINGUISTIQUE cryptage Fourier (baron Joseph) informatique - Histoire de l'informatique - La logique formelle - L'origine de la logique message Morse Samuel Finley Breese ordinateur - La technique des ordinateurs - Le squelette logique sémiotique signe - 2.LINGUISTIQUE, SÉMIOTIQUE Les médias Morse - le code Les livres codage, page 1156, volume 3. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles