Grande Encyclopédie Larousse 1971-1976Éd. 1971-1976
A

automatique (suite)

Théorie des systèmes asservis

Un système asservi est d’autant plus précis que l’amplification, presque toujours interposée entre la mesure de l’écart et l’élaboration des ordres, est plus forte. Malheureusement, cet accroissement de la précision se paye par une tendance à l’instabilité, la boucle pouvant même entrer en auto-oscillation si l’amplification est trop forte. Le travail de conception d’un système asservi a donc essentiellement pour objet d’établir un compromis satisfaisant entre les exigences contradictoires de la stabilité et de la précision.

La théorie des systèmes asservis est particulièrement développée dans le cas des systèmes linéaires, qui jouissent des deux propriétés de superposition et de proportionnalité des causes et des effets : l’effet de plusieurs causes agissant simultanément sur un système linéaire s’obtient en superposant les effets de ces mêmes causes agissant séparément. La théorie des systèmes linéaires présente un aspect temporel, fondé sur l’étude directe des équations différentielles décrivant le comportement du système étudié, et un aspect fréquentiel, fondé sur l’étude du régime permanent sinusoïdal, ou analyse harmonique. Ces deux aspects sont d’ailleurs liés mathématiquement par les transformations de Fourier et de Laplace (calcul symbolique). La théorie harmonique des systèmes linéaires constitue actuellement le langage de base de l’enseignement des systèmes asservis dans les écoles d’ingénieurs. Cette théorie a pu être étendue dans diverses directions. En premier lieu, la méthode de linéarisation harmonique permet de traiter les systèmes non linéaires dits « filtrés », dans lesquels on peut négliger les harmoniques engendrées par un effet non linéaire tel que l’action d’un relais, la saturation d’un amplificateur ou un jeu mécanique. D’autre part, la théorie des systèmes échantillonnés permet de traiter un grand nombre de systèmes à action intermittente. Enfin, la dynamique statistique et l’optimalisation statistique permettent de concevoir des systèmes asservis dans lesquels la moyenne quadratique de l’écart est minimale, compte tenu des propriétés statistiques des signaux utiles et des perturbations agissant réellement sur le système en service, ainsi que des contraintes de saturation, notamment en ce qui concerne l’énergie disponible au niveau des actionneurs. Cette théorie a été appliquée en particulier à la conception d’asservissements à hautes performances pour systèmes d’armes.


Commande optimale

Plus généralement, la théorie non linéaire de la commande optimale permet de calculer des systèmes de conduite assurant le transfert d’un système physique d’un état initial à un état final, en un temps imposé ou non, en minimalisant une fonction de coût, représentant par exemple l’énergie requise par la transition, et en tenant compte des contraintes de saturation. Cette théorie s’est développée dans une optique « déterministe », les propriétés du système conduit et les signaux agissant sur lui étant supposés parfaitement connus, ou « stochastiques », les valeurs des paramètres et des variables en fonction du temps comportant une marge d’incertitude de caractère aléatoire. Ses instruments mathématiques sont constitués par la programmation dynamique et le calcul des variations, qui conduit au principe du maximum. Le problème général de la commande optimale comprend l’identification du processus conduit sous la forme d’un modèle mathématique, l’estimation optimale de son état à partir des mesures effectuées sur les variables accessibles et l’établissement de la loi de conduite optimale.


Notion d’état

Cette notion joue un rôle fondamental dans la théorie moderne de la commande. Elle permet, à la lumière de l’algèbre abstraite, de présenter le comportement dynamique de tous les processus dont sont le siège les machines logiques et les systèmes asservis sous une forme unifiée. Pour cela, les actions permanentes sont remplacées d’une manière approchée par des actions intermittentes, en quantifiant le temps, c’est-à-dire en le découpant en tranches successives. Les évolutions du système considéré sous l’effet de certaines actions sont alors décrites par une équation multidimensionnelle définissant l’état suivant, connaissant l’état actuel et les actions exercées à l’instant présent. Cette description discrète se prête particulièrement bien au traitement par ordinateur.


Rôle de la simulation

À côté de la théorie et en liaison avec elle, les méthodes de simulation analogique, numérique ou hybride jouent également un rôle important dans l’étude et la conception des systèmes automatiques. Elles permettent, rapidement et sans grands frais, d’essayer de multiples combinaisons de paramètres, en vue d’optimaliser le système à l’étude par rapport à un certain critère de qualité.


Systèmes adaptatifs et régulation extrémale

Les systèmes de conduite à structure fixe ne sont satisfaisants que dans la mesure où les propriétés du système conduit sont suffisamment stables dans le temps. Sinon, il convient de donner au système de conduite une faculté d’autoréglage ou d’auto-adaptation qui lui permette de s’adapter automatiquement aux fluctuations de son environnement. Les pilotes automatiques adaptatifs de l’avenir fonctionneront tout aussi bien à vitesse subsonique et au ras du sol qu’à vitesse supersonique et à haute altitude, c’est-à-dire pour des caractéristiques aérodynamiques de l’avion très différentes, tout comme le fait dès à présent un pilote humain. C’est précisément la remarquable adaptativité de l’opérateur humain, ainsi d’ailleurs que ses facultés d’identification de situations complexes, qui conduit à le conserver dans de nombreux systèmes de conduite.

Si l’auto-adaptation est dirigée, non seulement vers l’obtention d’un fonctionnement satisfaisant, mais encore vers la recherche d’un comportement optimal à l’égard d’un certain critère, le système est dit « auto-optimalisant ». Un cas particulier de l’auto-optimalisation est constitué par la régulation extrémale, dans laquelle on agit sur certains paramètres d’un processus de manière à maintenir constamment un indice de qualité ou de rendement aux environs de son maximum, malgré les fluctuations des propriétés du processus considéré.