Equation différentielle du premier ordre

Nous l'avons souligné précédemment, l'équation différentielle est un outil bien adapté au problème. Cette équation a été décrite sous la forme d'une somme de deux termes. On représentera la cause et l'effet comme deux fonctions du temps, ou encore deux signaux.

La cause sera aussi appelée signal d'entrée e(t)
L'effet signal de sortie s(t)

Résolution temporelle

Solution analytique

Les mathématiques nous apprennent que si e(t) est connue et si s(t) est connue pour un temps t, alors la fonction s(t) est définie de manière unique. La solution du modèle est donc déterministe, c'est satisfaisant.

La résolution de cette équation passe

par la solution de l'équation dans laquelle e(t) est identiquement nulle, l'équation sans second membre. Les solutions de cette équation sont toutes proportionnelles à
par la recherche d'une solution particulière ou la méthode de variation de la constante.

On obtient une solution de l'équation différentielle qui fait intervenir un produit de convolution:

Régime libre math_cad.gif (994 octets)       Régime quelconquemath_cad.gif (994 octets)

Solution numérique

Cette équation différentielle pourrait être aussi résolue de manière numérique. En adoptant un calcul pas à pas de la solution. En effet le fait de connaître le signal de sortie à un instant s(0) et e(0) permet de trouver la dérivé du signal de sortie à t=0. Ensuite en assimilant s(0+dt) à une partie de son développement limité en t=0, on peut  calculer une valeur approchée du signal de sortie à cet instant.
Il ne reste plus qu'a recommencer ceci pour l'instant 2dt, 3dt...

On obtient alors, sous forme numérique, une solution approchée de l'équation différentielle. Une étude mathématique plus poussée peut permettre d'estimer l'erreur commise.

Comparaison analytique-numériquemath_cad.gif (994 octets)

 Résolution fréquentielle

La représentation temporelle des solutions de l'équation différentielle n'est pas la seule intéressante, on peut effectivement visualiser leur transformée de Fourier.

Décomposition de Fourier

Quand on se trouve confronté à un problème difficile, une des méthodes que l'on peut employée est de le décomposer en problèmes plus simples. Cette méthode est présente ,par exemple,

dans la logique du developpement technologique: la réalisation d'objets complexes passe, souvent, par l'assemblage de modules autonomes réalisant une mission particulière,
dans la façon que l'on a de repérer la position d'un objet par ses coordonnées (par exemple en classant les individus par l'intermédiaire de sondages)
dans la structure mathématique d'espace vectoriel, où le comportement d'un vecteur quelconque pourra être analysé au moyen du comportement d'un "petit" nombre de vecteurs particuliers, une base de l'espace vectoriel.

Au début du XIXième siècle, Jean-Baptiste Fourier faisait des expériences sur la répartition de la température dans des matériaux. Il imposait une répartition de température périodique (température d'un anneau) et la regardait évoluée en fonction du temps. Il eu la surprise de voir apparaître une répartition presque sinusoïdale. Il eu la bonne idée de penser que la sinusoïde avait toujours été là, mais qu'elle n'était devenue mesurable seulement quand les autres s'étaient uniformisées. Puis il fut intimement convaincu que la répartition initiale pouvait se mettre sous la forme d'une combinaison linéaire de répartitions sinusoïdales de pulsations différentes. Cette façon de voir les choses posait un certain nombre de problèmes à l'époque, surtout quand la modélisation de la répartition de température était discontinue. La théorie des distributions (L Schwartz entre autres), au milieu du XXième siècle a permis de préciser à quelles répartitions on pouvait appliquer cette décomposition.

Les fonctions périodiques, même si elles possèdent quelques discontinuités et les fonctions de carré sommable,  très importantes dans la modèlisation physique et l'automatique entre dans l'ensemble des fonctions décomposables par la méthode de Fourier

décomposition d'un signalmath_cad.gif (994 octets)

Fonction de transfert

Nous allons donc appliquer la décomposition de Fourier aux signaux de l'automatique, s(t) et e(t). En prenant l'image de la projection des vecteurs sur une base d'un espace vectoriel, on peut dire que si l'on "projette" l'équation différentielle sur l'ensemble des fonctions sinusoïdales d'une pulsation fixée, nous pourrons déterminer une des "coordonnées" du signal s(t).

Pratiquement cela revient à étudier l'équation différentielle en cherchant des solutions sous la forme:

On préfère prendre une représentation qui facilitera les calculs, la représentation complexe. Elle se base sur la constatation suivante: si s(t) est solution de l'équation différentielle avec e(t), alors s(t-T/4) est solution avec e(t-T/4), donc s(t)+i s(t-T/4) est solution (i²=-1).
Si on cherche des solutions sinusoïdales, on va pouvoir faire alors apparaître des exponentielles complexes dont les dérivés par rapport au temps se calculeront facilement.

c'est la fonction de transfert

Diagramme de Bode math_cad.gif (994 octets)        Diagramme de Nyquistmath_cad.gif (994 octets)

Détermination du signal de sortie

Le signal d'entrée étant connu, on calcul sa transformée de Fourier.

On utilise la fonction de transfert pour déterminer le signal de sortie de chaque composante sinusoïdale.

L'équation différentielle étant linéaire, On reconstitue le signal de sortie total ,en faisant la somme de toutes les composantes.

Utilisation de Fouriermath_cad.gif (994 octets)