Discussion Recherche:Département:Mathématiques/Contenu

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikiversité, la communauté pédagogique libre.

SVP Pouvez vous m'aider à distinguer les deux méthodes de régression au mieux et au plus près en deux rubriques différentes ? ( elles renvoient actuellement à la même page )

ET

--Ereduverseau (discussion) 11 mai 2013 à 21:17 (UTC)[répondre]

Algorithme de filtrage non linéaire en contexte discret[modifier le wikicode]

Le cas gaussien est supposé connu et bien modélisé. Il concerne les cas linéaires stochastiques en l'état. Il s'agit ici de proposer un outil mathématique qui permet de traiter des densités "quelconques" non gaussiennes c'est-à-dire qui concernent des systèmes non linéaires stochastiques, avec éventuellement des bruits d'excitation non gaussiens, on vise un futur filtrage non linéaire "optimal" en contexte discret. L'outil candidat de base est l’expression en série de Hermite d'une densité quelconque: Si p(x) est la densité non gaussienne de la variable scalaire (réelle) x, on écrit sa série de hermite sous la forme p(x)= G(0,1)(1+ ai hi(x)) , somme infinie sur l'entier i, i part de la valeur 3 , avec les définitions suivantes:

   G(0,1) désigne la densité gaussienne centré (son moment premier est nul) de variance unité (son moment second vaut 1).
   Les ai sont des coefficients réels dépendant de la densité p(x)
   hi(x) désigne le polynome de Hermite normé de degré i en x

Les polynomes de Hermite hi(x) forment une base orthonormée vis-à-vis de G(0,1): E(hi(x) hj(x))=ʃG(0,1) hi(x) hj(x) dx = 1 si i=j, 0 sinon. Si l’on calcule la moyenne de hi(x) avec la densité p(x) , on obtient E(hi(x))= ʃ hi(x) p(x) dx=ʃG(0,1)(1+ai hi(x))hi(x) dx=ʃG(0,1) hi(x) dx+ʃG(0,1) ai hi(x) hi(x)= ai. La série part de la valeur i=3 , on calcule le moment 0 de p(x) noté m0: m0=ʃp(x)=ʃG(0,1)dx+ʃG(0,1)ai hi(x)dx=1 (puisque i≠0) donc p(x) écrite en série est normée. On calcule moment 1 noté m1:m1=ʃ x p(x)=ʃx G(0,1)dx+ʃG(0,1)ai x hi(x)dx=0 puisque i≠1 . On calcule son moment 2 noté m2:m2=ʃ x² p(x)=ʃx² G(0,1)dx+ʃG(0,1)ai x² hi(x)dx=1 puisque i≠2 et les 2 prmeirs moments de p(x) coincident avec ceux de G(0,1)par construction.Calculons E(h3(x))=a3 et comme h3(x)=(x³-3x)/sqrt(3!), on en déduit le moment 3 de la densité :m3=a3sqrt(3!) puisque E(h3(x))=a3=E(x³)/sqrt(3!)-3/sqrt(3!)E(x)=m3/sqrt(3!). De la même facon, on obtiendrait le moment 4 noté m4 de p(x) ,avec h4(x)=(x^4-6x²+3)/sqrt(4!), m4=3+a4 sqrt(4!). Certains auteurs distinguent le cas a4 positif et a4 négatif pour classer les cas "sous gaussiens ou sur gaussiens". a4=0 donne le moment 4 de G(0,1) soit 3. On peut calculer les moments de degré quelconque de cette facon. L'avantage capital de ce développement en série de Hermite est la possibilité de calculer analytiquement des moments d'ordre quelconque de la densité p(x) puisque cela revient à calculer des moments gaussiens d'ordre supérieur, ce que l’on sait faire. La série étant infinie, on procédera en pratique à une troncature, perdant de l'information et créant des problèmes de convergence, et on fera coincider les premiers moments avec ceux de la densité non gaussienne que l’on veut traiter. Le principe théorique est posé, il s'agit maintenant d'estimer par un algorithme ces premiers moments, approchant la densité non gaussienne. On définit, selon notre propre vocable, la densité "proche gaussienne" qui consiste en une série de Hermite tronquée à un degré quelconque (4 pour commencer...): p(x)=G(0,1)(1+a3 h3(x)+a4 h4(x)) , le problème de fond lié à la convergence des algorithmes candidiats est lié à la positivité de la densité tronquée. On espérera raisonnablement que pouvoir traiter des densités qui ressemblent à la densité G(0,1), pour que la définition "proche gaussienne" limité au degré 4 ait un sens. Il est clair dans notre esprit qu'un algorithme capable de traiter en temps réel sans divergence numérique tous les types de densités n'existera sans doute jamais... On donne un apercu des problèmes de filtrage que l’on sait traiter: Une mesure linéaire de x est y=hx+v , v bruit gaussien centré de variance R et on souhaite connaitre les nouveaux moments après inclusion de la connaissance de cette mesure (étape d'estimation de filtrage). La nouvelle densité est encore une densité proche gaussienne de même degré 4 (on écrit simplement la formule de Bayes pour s'en rendre compte). Supposons maintenant que l'état discret noté classiquement xk est régit par la dynamique dicrète x(k+1)=f(xk)+wk , wk bruit gaussien centré de variance Qk et f est une fonction non linéaire de l'état.On souhaite connaitre la nouvelle densité pour x(k+1), notée p(xk+) en supposant que p(xk) est proche gaussienne (étape de prédiction de filtrage). Après écriture de f(xk) en série de Taylor tronqué à un degré (2) autour de m1 de p(xk), on obtient x(k+1)comme polynome de degré 2 en l'état. Par exemple f(x)=f(m1)+a(x-m1)+b(x-m1)² et on doit calculer les 4 premiers moments de x(k+1) pour définir sa densité proche gaussienne (on note que x-m1 est l'erreur d'estimation). On donne le premier moment noté m1kk: E(x(k+1))=E(f(m1)+a(x-m1)+b(x-m1)²+w)=f(m1)+b P , P est la variance de xk. La variance de x(k+1) est E((x(k+1)-m1kk)²)=a^2*P + 2*m3*a*b - b^2*P^2 + m4*b^2 + Qk en fonction de moments centrés m3 et m4 de p(xk).On calcule aussi les moments 3 et 4 centrés de x(k+1)par le même procédé. On détermine ainsi la nouvelle densité proche gaussienne. Le cas multivariable peut aussi être traité par cet ébauche d'algoritmme de filtrage non linéaire dit "proche gaussien".

J’ai remis une page que j’avais déplacé sans m'en apercevoir. Mes excuses à Wiki et à l'excellent auteur. Je m'en suis aperçu en faisant le bilan d'un livre que je crée.--Ereduverseau (discussion) 4 septembre 2013 à 19:05 (UTC)[répondre]