Grande Encyclopédie Larousse 1971-1976Éd. 1971-1976
P

phonétique (suite)

L’analyse acoustique

La composition acoustique des sons vocaux, étudiée d’abord par des diapasons et des résonateurs, fait appel aujourd’hui à des appareils plus perfectionnés. L’oscillographe, ou oscilloscope, enregistre la vibration sous forme d’un diagramme (oscillogramme). Cette courbe peut être décomposée en courbes composantes. Le spectromètre rend visibles les résultats de cette analyse sous la forme d’un spectre. Le sonagraphe permet de réaliser le spectre, ou sonagramme, d’une succession de sons correspondant à une vingtaine de phonèmes (30 cm, 2,4 s) : les principaux formants y apparaissent comme des bandes noires longitudinales, plus ou moins larges, plus ou moins denses et plus ou moins proches les unes des autres suivant le son. On dispose ainsi d’un véritable alphabet spectrographique, à partir duquel certains linguistes ont pu tenter un classement acoustique des sons du langage en cherchant l’équivalent, sur le plan acoustique, des caractéristiques articulatoires. Ainsi, la présence d’une structure de formants nettement définie distingue les sons vocaliques des sons non vocaliques. Les sons compacts (voyelles ouvertes, consonnes vélaires et palatales) s’opposent, par une concentration d’énergie dans une région étroite du spectre, aux sons diffus (voyelles fermées, consonnes labiales et dentales, alvéolaires comprises) : le spectre de [a] présente les deux formants principaux au milieu, tandis que, dans celui de [i], ceux-ci se trouvent aux deux extrémités, nettement séparés. Les sons graves (articulations périphériques : vélaires et labiales) s’opposent aux sons aigus (articulations médianes : palatales et dentales) par la concentration de l’énergie dans les basses fréquences du spectre : si l’on prononce en série [i], [y] et [u], le formant bas reste invariable, mais le formant haut descend, car [i] et [y] sont des sons aigus, et [u] est un son grave. La nasalité se traduit par l’apparition d’un formant spécial et la diffusion de l’énergie disponible sur de larges bandes de fréquence, par réduction de l’intensité de certains formants. L’identification des consonnes est surtout permise par les modifications qu’elles provoquent dans le spectre des voyelles. Il semble que les facteurs identifiés par l’analyse acoustique ne puissent pas toujours être mis en rapport avec les facteurs articulatoires ; l’identification acoustique du lieu d’articulation, en particulier, présente de grosses difficultés.

L’analyse acoustique des consonnes et des voyelles peut aider à mettre en lumière l’influence qu’elles exercent les unes sur les autres (la co-articulation), ce qui ouvre la voie à de nouvelles théories sur la syllabe, à de nouvelles interprétations des phénomènes d’interaction tels que la métaphonie ou des phénomènes d’évolution diachronique.


Synthèse du langage

Bien que la tendance analytique, qui vise à décrire le phénomène sonore et à le matérialiser physiquement, ait prévalu dans la phonétique expérimentale depuis les débuts de celle-ci, c’est en fait la tendance synthétique qui est la plus ancienne. Elle a été inaugurée au xviiie s. par la « machine à parler » du Hongrois Wolfgang von Kempelen (1734-1804).

Le Vocoder à filtres de Dudley (1939) réalise sa synthèse à partir de l’analyse préalable du discours d’un locuteur, par reconstitution contrôlée. Mais c’est la technique de relecture du sonagramme qui a permis pour la première fois une synthèse véritable du langage.

Puisque le sonagramme est une représentation adéquate du phénomène sonore, une relecture en play-back d’un sonagramme permet de reconstruire tous les caractères de la voix et donc la voix elle-même. Ainsi ont pu être étudiées les caractéristiques phonétiques des différentes langues (travaux de Pierre Delattre, de F. S. Cooper et de A. M. Liberman dans les laboratoires Haskins de New York). Le dispositif le plus complet de ce type a été réalisé par l’ingénieur Murzi à Moscou pour des usages musicaux. Les appareils de synthèse les plus modernes combinent les deux principes : le premier a été mis au point par le phonéticien suédois Gunnar Fant en 1956. D’autres appareils plus perfectionnés permettent de générer des sons sans analyse (Voder). Enfin, la diffusion des ordinateurs, avec la possibilité de synthétiser toute fonction à partir d’un programme défini, offre de nouvelles possibilités à la phonétique expérimentale (travaux de Charles Sanders Pierce, de Mathews et de Guthman dans les laboratoires Bell).

L’intérêt des méthodes de synthèse est qu’elles permettent de vérifier par l’audition les résultats obtenus par l’analyse. Elles permettent d’être sûr que l’analyse a bien isolé tous les aspects importants du phénomène vocal et n’est pas passée à côté d’aspects qui pouvaient être essentiels ; elles permettent également de dégager les aspects les plus importants à côté des aspects accessoires, et même de saisir certains aspects que l’analyse ne pouvait atteindre, comme la nature physique de l’intonation et son rôle.

Les tentatives de visualisation du langage par la spectrographie et les méthodes synthétiques ont été utilisées pour rendre le langage parlé accessible aux sourds-muets. Celui qui connaît l’aspect du spectre d’un son peut le lire au moment où il apparaît sur l’écran, et le langage parlé peut être transformé en langage écrit par un phonétographe.

Pour les aveugles, certaines machines qui transforment le texte écrit en parole synthétique servent de machines à lire.


Neurophysiologie

Le mécanisme de la phonation est commandé et synchronisé par le système nerveux, qui comporte un centre bulbaire coordonnant par les nerfs respiratoires, laryngés et bucco-pharyngés l’action des muscles respiratoires, du larynx, de la bouche et du pharynx. On commence à envisager la recherche des modèles qui correspondent aux traits distinctifs au niveau du système nerveux, mais les recherches de neurophysiologie sont loin d’être assez avancées pour qu’on puisse établir un classement neurophysiologique des sons du langage.