Quelques aspects de la théorie scientifique de l'information.
Dans un autre article nous avons envisagé de manière générale Les théories scientifiques de l'information. Nous consacrerons celui-ci à quelques aspect particuliers (la formule de Shannon et l'information quantique) afin de préciser certaines notions.
PARISIEN François-Hugues. Quelques aspects de la théorie scientifique de l'information. Philosophie, science et société. 2015. [en ligne] http://www.philosciences.com
1/ Shannon et la "théorie de l'information"
Nous allons essayer de préciser le concept d’information tel qu'il a été utilisé par Shannon dans la théorie dite "de l'information". Cette théorie n'a rien à voir avec l'information au sens ordinaire, puisqu'elle exclut toute signification. Elle concerne la communication de signaux discrets (individualisables et dénombrables). Son article princeps de 1948 s'intitule d'ailleurs
A Mathematical Theorie of communication.
Une façon de décrire un système de communication est d’en donner un modèle probabiliste. Ce que l'on appelle dans ce cas "fournir une information à un utilisateur" consiste à choisir un événement parmi plusieurs possibles. Par conséquent, "fournir une information" consiste à lever une incertitude sur l’issue d’une expérience aléatoire. Le nombre des occurrences parmi toutes celles possibles diminue. La notion d’information est une notion probabiliste qui rend compte de l'incertitude et de sa diminution.
Si nous considérons deux événements x et y, la probabilité conditionnelle P (x | y) peut être interprétée comme la modification apportée à la probabilité P (x) lorsque l’on reçoit l’information que l’événement y est réalisé.
L’information “y est réalisé” modifie la probabilité de x, c’est-à-dire l’incertitude sur la réalisation de x.
Plus précisément,
– si P (x | y) ≤ P (x), l’incertitude sur x augmente,
– si P (x | y) ≥ P (x), l’incertitude sur x diminue.
Se pose alors un problème mathématique : comment mesurer la variation de l’incertitude ? Une solution intéressante est de choisir une fonction décroissante de la probabilité comme le logarithme.
Si on note I(x) l’incertitude sur x, en utilisant une fonction logarithme népérien on peut définir I par :
I(x) = − log P (x).
Cette quantité est l'information propre à x.
Lorsque y est réalisé, cela diminue l’incertitude sur x de la quantité I(x) − I(x | y). Si on remplace cette expression par l'expression logarithmique on obtient :
l(m) = log P (x | y) / P (x)
Cette quantité est l’information mutuelle de x et y.
Plus généralement il montra que la fonction la plus générale obéissant aux conditions requises était de la forme est :
H = - k Σ p ln p
si k = 1 et que le logarithme (ln) est en base 2, le résultat sera exprimé en bits.
H =
Shannon nomma cette fonction Entropie. En quoi cette fonction serait-elle reliée à l'entropie définie par Clausius ? Nous laisserons cela de côté.
Shannon a introduit une fonction mesurant la quantité "d''information" contenue dans une distribution de probabilité. Il s'agit de la diminution d'incertitude concernant la probabilité d'un événement discret. Les événement concernés sont des signaux et leur transmission. Ce dont il est question ici ce n'est pas d'information au sens général du terme qui signifie obtenir des connaissances.
[size]
Théorie de l'information quantique
[/size]
Il s'agit de la théorisation qui permet l’utilisation des spécificités de la physique quantique pour le traitement et la transmission de signaux correspondant à des valeur numériques (information au sens informatique). La possibilité en a été ouverte début des année 1980, par la possibilité technique de manipuler et d’observer des objets quantiques individuels : photons, atomes, ions etc., (et pas seulement d’agir sur le comportement quantique collectif d’un grand nombre de tels objets).
Le bit de l’informatique classique prend les valeurs 0 ou 1. Le bit quantique, ou qubit, pourra non seulement prendre les valeurs 0 et 1, mais aussi, toutes les valeurs intermédiaires. Cela est dû à une propriété fondamentale des états quantiques : on peut fabriquer des superpositions linéaires de ces états, en superposant linéairement un état où le qu-bit a la valeur 0 et un état où il a la valeur 1.
La seconde propriété à la base de l’informatique quantique est l’intrication : en mécanique quantique, il peut arriver que deux objets distincts et éloignés l’un de l’autre, constituent une entité unique.(car une modification de l'un affecte instantanément le second).
La combinaison de ces deux propriétés, superposition linéaire et intrication, est au cœur du parallélisme quantique, la possibilité d’effectuer en parallèle un grand nombre d’opérations. Cependant, le parallélisme quantique diffèrent fondamentalement du parallélisme classique : alors que dans un ordinateur classique on peut toujours savoir (au moins en théorie) quel est l’état interne de l’ordinateur, une telle connaissance est par principe exclue dans un ordinateur quantique.
Le parallélisme quantique demande le développement d’algorithmes entièrement nouveaux. Le nombre d’algorithmes existant est pour l’instant très limité. La seconde limite est que l’on ne sait pas s’il sera possible de construire un jour des ordinateurs quantiques de taille suffisante. On ne sait pas à l’heure actuelle (2010) manipuler quelques qu-bits (sept au maximum)
L’ennemi de l’ordinateur quantique est la décohérence, l’interaction du support (photons, ions) des qu-bits avec l’environnement qui brouille les délicates superpositions linéaires. Cette décohérence introduit des erreurs, et idéalement, il faudrait que l’ordinateur quantique soit parfaitement isolé de son environnement.
[size]
Conclusion brève
[/size]
Le problème de l'information devenant crucial pour notre société, il est intéressant de savoir de quoi l'on parle. On voit ici qu'il s'agit de propriétés physiques pouvant être formatées selon un calcul. C'est pour cela que nous avons tenu à noter les formules mathématiques. Il est donc quelque peu abusif de parler d'information. Il serait préférable de parler de signal et de communication de signaux selon une forme mathématisable.
© 2015 PHILOSOPHIE, SCIENCE ET SOCIETE