Devoir de Philosophie

INFORMATION

Publié le 22/02/2012

Extrait du document

Source: http://www.peiresc.org/DINER/Lexique.pdf

 

Au sens large, la notion d'information recouvre celle de renseignement, d'ensemble de données ou de faits cognitifs. Le développement au XX ème siècle de moyens techniques de communication de masse d'informations (téléphone, radio, télévision, ordinateurs et systèmes de commande automatique) donne naissance à une science nouvelle que l'on peut globalement désigner du nom de Cybernétique. C'est dans ce cadre que la notion d'information a pris un caractère quantitatif aux dépens du caractère sémantique général. Dans la théorie mathématique de la communication de Shannon on définit la quantité d'information contenue dans un évènement comme une grandeur inversement proportionnelle à la probabilité de cet évènement. Plus un évènement est inattendu, peu probable, plus sa survenue ou la nouvelle de sa survenue fournit de l'information. L'information est une mesure de l'incertitude qui prévaut avant la survenue d'un événement et se mesure par le nombre de questions à réponses doubles (oui ou non) nécessaires pour lever cette incertitude. Une situation d'ordre où tout est prévisible ne peut fournir aucune information. La notion d'information est réduite à sa plus simple expression, c'est à dire au fait même qu'un événement se soit produit. Mais elle dépend évidemment de ce que l'on considère comme un événement. Cette théorie ne tient compte ni du sens, ni de l'origine, ni de la cause de l'information. L'un des 162 principaux apports de Shannon réside dans la possibilité de dissocier quantité et signification de l'information : la quantité d'information contenue dans un message est une caractérisation de la structure du signal indépendamment de toute référence au sens du message. Disjonction majeure entre le signifiant et le signifié. Le concept quantitatif d'information joue dans la science du XXème siècle le même rôle qu'a joué l'énergie dans la science du XIX ème siècle ou la matière dans la science classique. Et comme l'a dit N. Wiener, un des pionniers de la Cybernétique: l'information, ce n'est pas la matière, ce n'est pas l'énergie, c'est l'information. Pourtant on imagine mal que l'information puisse exister sans support matériel et sans manifestations énergétiques. Grand débat au coeur de toute la science contemporaine qui souffre endémiquement de "dématérialisation". Le concept d'information apparaît dans différentes théories : la théorie statistique des signaux et de la communication (Shannon), la théorie de l'inférence statistique (Fisher) et la théorie de la complexité (Solomonoff, Kolmogorov, Chaitin). Le vide quantique n'est pas une substance, mais un état, donc une information. L'information, comme le vide, sont des noms abstraits et non pas des noms singuliers désignant une réalité localisable dans l'espace temps. L'information constitue un paradigme fondateur d'une vision d'ensemble de la connaissance scientifique au même titre que la complexité ou la structure.

Liens utiles