Grande Encyclopédie Larousse 1971-1976Éd. 1971-1976
C

communication (suite)

• Adaptation du message. Soit un émetteur, transmettant X, et un récepteur, recevant Y. Si la transmission est parfaite, on a évidemment X = Y. Mais, s’il y a des erreurs, la quantité d’information reçue en Y est inférieure à celle émise en X. On dit que le canal est bruyant, ou que la transmission est entachée de bruit. Il faut évaluer cette perte d’information due au canal, ou, ce qui revient au même, évaluer cette information transmise que l’on appelle la transinformation. Il faut aussi, pour un canal donné, chercher s’il existe des sources pour lesquelles l’information transmise est maximale.

La transinformation est une quantité qui peut être positive ou nulle. Dans ce dernier cas, le bruit est tel que la grandeur reçue Y n’a plus aucun rapport avec la grandeur émise X, de sorte que les grandeurs X et Y deviennent indépendantes. En revanche, si le bruit est nul (X = Y), l’information transmise R(X, Y) doit être égale à l’information de la source X, H(X). On vérifie que la quantité remplit les conditions suivantes :
R(X, Y) = H(X) – H(X/Y),
H(X) étant la quantité d’information de l’émetteur, H(X/Y), la quantité d’information conditionnelle de l’émetteur. Cette quantité peut s’exprimer également ainsi :
R(X, Y) = H(X) + H(Y) – H(XY) = H(Y) – H(Y/X)
(v. information).

La transinformation est d’autre part une fonction de paramètres liés à la source et au canal de transmission. Le canal étant donné, on peut montrer qu’une (ou plusieurs) source(s) d’émission fournit une transinformation maximale. On appelle cette valeur capacité du canal, C. Ce fut C. E. Shannon qui le premier dégagea cette notion (loi de Hartley-Shannon) :

W étant la largeur de bande du canal ; S, la puissance du signal émis ; N, la puissance du bruit, supposé gaussien.

Pour que cette formule soit valable, il faut de plus que la séquence de signaux envoyés soit purement aléatoire. Il faut ensuite déterminer l’émetteur qui réalise ce maximum (on l’appelle émetteur adapté). Cela permet de réaliser le codeur, qui s’insère entre la source et l’émetteur dans le schéma de la chaîne de communication.

Généralement, la mise en œuvre d’un tel codeur idéal n’est pas réalisable ; on utilise un émetteur non adapté, et l’information transmise est plus petite que C : on a une redondance R = C – R(X, Y).

• Dispositifs détectant ou corrigeant les erreurs. Ici aussi l’importance du codage apparaît. En effet, le code ne se contente pas de mettre l’information débitée par la source sous une forme propre à la transmission, il ajoute à cette information un supplément, introduisant ainsi une certaine redondance qui permet de détecter et même parfois de corriger des erreurs. Souvent, le contrôle prend des formes plus subtiles : un code peut avoir plusieurs combinaisons interdites. Si on voit arriver une de ces combinaisons, on sait qu’il y a erreur, et par une voie de retour on la signale à la source émettrice, qui répète le message. Mais cela n’est pas gratuit, puisqu’il faut disposer d’un canal de retour, c’est-à-dire d’une certaine redondance.

Il faut remarquer que le cerveau humain est de loin le dispositif détecteur-correcteur d’erreurs le plus performant connu. Ainsi, la perte de quelques syllabes dans une conversation téléphonique est rectifiée (souvent inconsciemment) par l’auditeur. Il en est souvent de même pour l’omission d’un mot dans un texte. La parole et l’écriture sont donc des dispositifs de codage redondants.


Le modèle à états finis

Les langues naturelles possèdent certaines propriétés communes à tous les systèmes de communication, envisagés comme des systèmes de transmission de l’information. Les codes linguistiques présentent cependant une particularité fondamentale. Ils sont constitués de deux sous-codes non indépendants l’un de l’autre, définis en linguistique comme relevant de deux niveaux d’analyse spécifiques : le niveau morphématique (première articulation) et le niveau phonématique (seconde articulation). Dans toutes les langues naturelles connues, le niveau phonématique comporte un petit nombre d’éléments de base, les phonèmes (de 20 à 80). Ceux-ci s’enchaînent entre eux pour former les séquences sonores de niveau supérieur, dont les unités de base sont les morphèmes, en nombre très élevé. Les théoriciens de la communication se sont proposés d’évaluer la quantité moyenne d’information transmise par les langues naturelles en considérant le degré d’incertitude relatif aux différents signaux dans chacun des sous-codes. Ce faisant, ils rejoignaient les recherches poursuivies en linguistique depuis une vingtaine d’années par les « distributionnalistes » américains, préoccupés de décrire les langues naturelles en termes de contraintes formelles apparaissant dans l’enchaînement des unités de base. En réalité, les théoriciens de la communication présentaient aux linguistes le modèle mathématique implicite, sous-jacent aux recherches structuralistes, connu sous le nom de modèle à états finis, ou théorie des chaînes de Markov.

La non-équiprobabilité des signaux appartenant au code d’une langue naturelle donnée permet de relever le taux de redondance lié à cette non-équiprobabilité. En français, les phonèmes présentent d’importantes variations de fréquence : pour 37 phonèmes, les études statistiques indiquent des fréquences d’environ 8 p. 100 pour [a], 7 p. 100 pour [l], 1,7 p. 100 pour [o], 1,7 p. 100 pour [z], 0,5 p. 100 pour [g], etc. Au niveau morphématique, étant donné le grand nombre des unités, les fréquences moyennes sont plus difficiles à établir, mais des différences de fréquences apparaissent nettement : le morphème [tablə], par exemple, est moins fréquent que le morphème [lə] (on peut noter que les deux niveaux sont interdépendants : la fréquence élevée du phonème [l] est liée à la fréquence élevée du morphème [lə]).

Cependant, si la non-équiprobabilité des signaux est un facteur de redondance, le calcul de la diminution de l’information relative à cette non-équiprobabilité ne rend pas compte du taux élevé de redondance qui apparaît dans les langues naturelles (50 p. 100 en français et en anglais en moyenne). La source de redondance la plus importante tient au fait que les signaux subissent des contraintes séquentielles extrêmement fortes : les signaux émis (phonèmes et morphèmes) ne sont pas indépendants les uns des autres. Autrement dit, lorsqu’un signal est émis, la probabilité d’apparition du signal suivant dépend du premier. L’émetteur (ou locuteur) est considéré comme une machine qui peut prendre un certain nombre d’états successifs (a-e-f-t-... par exemple), dont le nombre est fini mais qui sont récurrents, c’est-à-dire qu’ils peuvent se reproduire régulièrement au cours de l’émission du message. Le premier état (début de la séquence émise) s’appelle état initial ; à la fin de l’émission, l’émetteur se trouve dans l’état final. Dans les langues naturelles, dès l’état initial, un certain nombre de restrictions apparaissent puisque tous les signaux ne sont pas équiprobables en début d’énoncé. Soit l’état initial [t] en français : l’une quelconque des voyelles peut succéder, mais non un phonème consonantique tel que [p] ou [b], ou un autre [t]. Dans l’état [t], la probabilité d’obtenir à droite un [p] ou un [b] est nulle, donc la probabilité d’obtenir une voyelle ou un [r] augmente. Si [r] est alors émis, l’émetteur se trouve dans l’état [tr], et de nouveau le choix du phonème suivant est limité à un sous-ensemble restreint des phonèmes appartenant au code : la probabilité d’apparition d’une consonne est nulle, seule une voyelle est possible. Ces processus d’interdépendance des éléments portent le nom de chaîne de Markov. Une source de signaux où tous les signaux sont indépendants est dite « d’ordre zéro » ou « sans mémoire ». Elle est dite « source de Markov d’ordre un » si la probabilité d’apparition d’un signal dépend exclusivement du signal qui précède ; soit un langage comportant la seule contrainte séquentielle : consonne toujours suivie de voyelle ; quelle que soit la longueur du message à l’instant t, si l’émetteur se trouve dans l’état C, alors la probabilité de réalisation d’un état C suivant est nulle et égale à 1 pour V. Si la source de signal a une mémoire d’ordre deux, la probabilité de réalisation d’un signal est conditionnée par la probabilité des deux signaux qui précèdent. Plus généralement, une source de signal a une mémoire d’ordre n lorsque la probabilité du signal à émettre dépend des n signaux qui précèdent immédiatement. Il est évident que si, pour un contexte donné, la probabilité d’apparition d’un signal augmente (à la limite, s’il peut être prévu : cas de « q » toujours suivi de « u » en langue écrite), l’incertitude sur sa réalisation diminue, et l’information apportée diminue également. Dans les langues naturelles, les dépendances sur l’ordre séquentiel des phonèmes sont de longueur finie et ne dépassent pas l’ordre 5. En linguistique, les distributionnalistes, tout en utilisant d’autres méthodes et sans recours aux études statistiques, ont obtenu des résultats correspondant aux approximations effectuées à partir du calcul des probabilités conditionnelles : la recherche de la structure sous-jacente aux énoncés émis rejoint les notions de redondance et de probabilité puisque toute règle (linguistique) portant sur la réalisation d’un élément dans un contexte donné représente une restriction, une limite sur l’ensemble des choix théoriquement possibles.