Leçons de niveau 15

Équation différentielle linéaire/Généralisation, notation matricielle

Une page de Wikiversité.
Sauter à la navigation Sauter à la recherche
Début de la boite de navigation du chapitre
Généralisation, notation matricielle
Icône de la faculté
Chapitre no 2
Leçon : Équation différentielle linéaire
Chap. préc. :Équations différentielles linéaires d'ordre un
Chap. suiv. :Exemples et intérêt
fin de la boite de navigation du chapitre
Icon falscher Titel.svg
En raison de limitations techniques, la typographie souhaitable du titre, « Équation différentielle linéaire : Généralisation, notation matricielle
Équation différentielle linéaire/Généralisation, notation matricielle
 », n'a pu être restituée correctement ci-dessus.

Introduction[modifier | modifier le wikicode]

Dans les cas réels, et notamment en mécanique, il est courant d’avoir affaire à des équations différentielles d'ordre 2 ou plus. Le but de ce chapitre est de montrer comment, grâce à l'algèbre et à la notation matricielle, tout problème d'équation différentielle linéaire ordinaire à coefficients constants peut être ramené au cas « simple » d'une équation différentielle d'ordre un, traité dans le chapitre précédent.

En particulier, cela amène des résultats très généraux, comme l’existence de solutions, ou la dimension de l'espace des solutions, tout en proposant une méthode de résolution efficace.

Objet d'étude[modifier | modifier le wikicode]

Rappelons l’objet d'étude de ce chapitre :


Puisque cela nous sera utile par la suite, introduisons dès maintenant quelques notations :


Mise en forme matricielle[modifier | modifier le wikicode]

Réduction de l’ordre[modifier | modifier le wikicode]

Grâce à la notation matricielle, nous allons réécrire cette relation sous la forme d'une simple équation du premier ordre. Pour cela, on va augmenter le nombre de dimensions. Nous ne travaillerons alors plus avec des scalaires, mais avec des vecteurs et des matrices.

Il est commode dans un premier temps de ne considérer que le cas homogène. La solution générale s'obtiendra aisément en ajoutant une solution particulière (constante) à la solution homogène. Pour simplifier encore davantage les calculs, divisons tous les coefficients par an (celui-ci étant non-nul) sans changer leur nom. On travaille donc sur l'équation différentielle :

Posons tout d’abord le vecteur X :

Ce vecteur est dérivable, et on a bien sûr :

L'idée est alors de réécrire l'équation différentielle de départ, comme somme de X’ et de X : on aura ainsi une équation différentielle (matricielle) linéaire d'ordre un ! On cherche donc à écrire : Avec M une matrice n × n, dont les coefficients doivent être bien choisis. Tentons de les retrouver.

Travaillons ligne par ligne. La première ligne porte simplement les coefficients -an-1, ..., -a₀ dans cet ordre, de manière triviale. La seconde ligne peut être facilement résolue en mettant un coefficient 1 pour la dérivée (n+1)-ième, et 0 partout ailleurs. Il en est de même pour les autres. Finalement, on obtient :

On peut remarquer le fait que M est une matrice compagnon.

Propriétés de la matrice M[modifier | modifier le wikicode]

Nous allons notamment nous intéresser aux valeurs et vecteurs propres de M. Le déterminant de cette matrice est le produit de ses valeurs propres, la trace est leur somme. Le déterminant et la trace de M sont respectivement :

Les valeurs propres sont les racines du polynôme caractéristique (au signe près) :

La résolution explicite, pour des équations d'ordre supérieur à 3, est difficile à la main, sauf cas particuliers. Néanmoins, l’utilisation de méthodes heuristiques (pour trouver une racine « triviale ») réduit le degré du problème — et il est toujours envisageable d’utiliser des logiciels de calcul formel (Mathematica, Matlab, Maple…), qui trouveront rapidement les racines.

En fait, M est toujours diagonalisable, que ses valeurs propres soient distinctes (auquel cas on peut diagonaliser M par une matrice de Vandermonde), ou pas. On a donc une matrice inversible P, telle que :

Résolution de l'équation différentielle[modifier | modifier le wikicode]

Forme de la solution[modifier | modifier le wikicode]

Repartons de notre équation différentielle matricielle :

Par analogie avec le cas simple décrit dans le chapitre précédent, une solution est de la forme :

La solution à l'équation de départ, non-homogène, s'obtient facilement en rajoutant une constante adaptée.

Mais qu'est-ce qu'une exponentielle de matrices ?

Exponentielle de matrices[modifier | modifier le wikicode]

Il existe deux manières d'approcher l'exponentielle de matrices, qui sont complémentaires : soit d'un point de vue géométrique, soit d'un point de vue analytique. Nous choisissons ici la première approche, probablement plus simple.

Rappelons tout d’abord une relation très importante :

Dans le cas d'une matrice diagonalisable, il est même possible d'expliciter complètement l'exponentielle de matrice, ce qui nous est fort utile ici. On a, en effet, le théorème suivant :

Début d’un théorème
Fin du théorème


La méthode alternative, mais qui ne permet pas toujours une résolution manuelle, est d’utiliser la série entière de l'exponentielle :

Puisqu'on est capable de calculer toutes les puissances de M, l’utilisation de cette somme est envisageable. Elle est en réalité plus pratique dans les cas d'évaluation numérique : il n'est plus besoin de considérer les éventuelles valeurs propres ou vecteurs propres de la matrice.

Solution[modifier | modifier le wikicode]

On obtient, d'un seul coup, la solution pour la fonction f et pour toutes ses dérivées. Faisons rentrer le facteur A de la solution homogène dans l’expression développée de l'exponentielle, et prenons en compte la quantité constante non-homogène. La solution finale à l'équation différentielle ordinaire linéaire à coefficients constants d'ordre n de départ est alors :

Équations à coefficients non-constants[modifier | modifier le wikicode]

Échec des théorèmes d'ordre un[modifier | modifier le wikicode]

Le travail effectué jusqu'ici n'est valable que si les coefficients de l'équation différentielle sont des complexes. Peut-on généraliser ces résultats aux cas où il s'agit de fonctions de x ? La réponse, malheureusement, est non. Pire : il est impossible d'exprimer la solution, si solution il y a, par une formule finie (on parle de résolution en forme close). En fait, seules les équations d'ordre un (décrites dans le chapitre 1) et deux (décrites dans le chapitre 5) admettent des solutions analytiques.

En reprenant les notations du paragraphe précédent, l'équation différentielle homogène d'ordre n peut s'écrire sous la forme d'une équation matricielle d'ordre un :

avec l’application matricielle :

Devrons-nous pour autant renoncer à leur résolution ?

Les séries de Magnus[modifier | modifier le wikicode]

Il existe un moyen de résoudre ces équations : les séries de Magnus. L’idée est que, par analogie avec le cas à coefficients constants, on va chercher X sous la forme d'une exponentielle de matrices :

avec une certaine application matricielle à déterminer.

Cette application est solution de quelques relations, qui permettent de déduire qu'elle peut être définie par une série, appelée série de Magnus :

avec . Il s'agit d'une somme infinie.


Début d’un théorème
Fin du théorème


La question est, justement, de savoir quand cette série converge. Cette question n’est pas à l’heure actuelle (2007) complètement résolue. Toutefois, de nombreux résultats existent, parmi lesquels cette condition suffisante (mais pas nécessaire) :


Début d’un théorème
Fin du théorème


Propriétés[modifier | modifier le wikicode]

Stabilité analytique[modifier | modifier le wikicode]

La question de la stabilité, évoquée dans le chapitre précédent pour les équations du premier ordre, est en fait très générale.


La stabilité d'une équation différentielle linéaire ordinaire est liée aux valeurs propres de la matrice associée :

Début d’un théorème
Fin du théorème


Remarques :

  • dans le cas d'une équation ω-stable, le polynôme caractéristique du problème est un polynôme d'Hurwitz ;
  • dans le cas d'une équation α-instable, il s'agit d'un polynôme de Schur. Les cas α-instables seraient ω-stables si on inversait le sens du temps ;
  • ce théorème de stabilité se généralise, moyennant quelques conditions supplémentaires, aux cas d'équations différentielles non-linéaires ;
  • le cas où toutes les valeurs propres sont de partie réelle nulle n’est pas analytiquement stable parce que les solutions obtenues oscillent et ne convergent donc pas — elles sont néanmoins bornées, et vérifient une autre forme de stabilité, moins restrictive, appelée « stabilité EBSB » (pour « entrée bornée, sortie bornée »).

Stabilité numérique[modifier | modifier le wikicode]

Une équation standard pour définir et évaluer la stabilité d'une méthode numérique est , dont la solution analytique est . La méthode d'Euler pour une telle équation donne :

Introduisons une notion au travers de cette méthode, qui est en réalité plus générale, mais n'est ici qu’illustrative.


Alors, on peut discuter de la stabilité d'une méthode, sachant le théorème suivant :

Début d’un théorème
Fin du théorème


Pour la méthode d'Euler, la région de stabilité se réduit à un cercle : il ne s'agit donc pas d'une méthode A-stable. Néanmoins, il est toujours possible (lorsque k < 0) de trouver un pas h tel que la fonction de stabilité soit de module inférieur à 1, et donc que l'intégration numérique converge.