Recherche:Techniques de régressions au mieux/Principes généraux

Une page de Wikiversité.
Aller à la navigation Aller à la recherche
Début de la boite de navigation du chapitre
Principes généraux
Icône de la faculté
Chapitre no 1
Recherche : Techniques de régressions au mieux
Retour auSommaire
Chap. suiv. :Régressions monômiales et polynômiales
fin de la boite de navigation du chapitre
Icon falscher Titel.svg
En raison de limitations techniques, la typographie souhaitable du titre, « Techniques de régressions au mieux : Principes généraux
Techniques de régressions au mieux/Principes généraux
 », n'a pu être restituée correctement ci-dessus.


1 / Principe de décomposition et de sommation paire et impaire des régressions[modifier | modifier le wikicode]

NOTA : il s'agira en fait de trouver la courbe et l'équation "au plus prés" - sera-ce la plus probable ? à voir et à démontrer -( différente de la courbe de régression classique au sens de la somme minimale des carrés des écarts ).
Il sera préférable et nécessaire de prendre un nombre impair de n couples de données avec n=3+4n et de le centrer. Les valeurs des y seront ramenées relativement à la valeur centrale , ce qui donne et donc
Tout échantillon dont il faut déterminer la courbe de régression "au plus près " ainsi que son équation sera décomposé en un échantillon impair et un pair dont il sera la somme.
La somme géométrique des courbes de régressions et celle algébrique des équations trouvées donneront la courbe au plus près et l'équation résultantes .
Par itération de la méthode, le résidu sera traité de la même façon. Des exemples illustreront ves différents points. Patience.....

2 / Principe de décomposition et de sommation linéaire des régressions au plus près[modifier | modifier le wikicode]

Les courbes et équations de régression au plus près de tout échantillon ou de toute partie impaire ou paire d'un échantillon sont décomposables en une combinaison linéaire géométrique de courbes de régression et une somme algébrique de leurs équations dont la résultante sera la moyenne barycentrique.
La démonstration est triviale. La somme des coefficients affectés à chaque composante de la moyenne barycentrique est de 1 dans le cas où il n'y a plus de résidu ( à voir ). Les coefficients seront déterminés en minimisant la somme des carrés des écarts ou en réappliquant la méthode de résolution de systèmes linéaires au plus près.
Seront retenues les combinaisons présentant des totaux de carrés d'écarts admissibles.

3 / Principes du choix des courbes et équations de régression de base[modifier | modifier le wikicode]

3.1 / Premiers choix de fonctions de régression de base[modifier | modifier le wikicode]

A / Monômes et combinaisons linéaires ( polynômes ) pairs et impairs ( dont celui du premier degré appelé droite de régression, composé d'une fonction paire - le terme sans variable b - et d'une fonction impaire - monôme du premier degré de la variable ax - )
et
B / Sinus et cosinus trigonométriques ainsi que leurs puissances et ainsi que les combinaison linéaires de sinus, respectivement de cosinus .
et
et
C / Sinus et cosinus hyperboliques et combinaison linéaires de sinus, respectivement de cosinus .
et
et
D / Exponentielles simples paires et impaires construites et leurs combinaisons linéaires.
et
et
et
E / Tout produit d'une fonction de base simple A B C ou D avec une autre A B C ou D ou avec une exponentielle ammortie aux infinis paire : .
F / Tout produit de produit E avec une fonction simple A B C D ou E .
G / ETC et toutes autres possibilités avec celle de multiplier aussi par une exponentielle paire ammortie aux infinis.
H / Fonctions de puissances de la totalité des données.
avec F parmi A B C D E F
I / Analyse des variatons différentielles des données y au lieus des y ( ex pour les fonctions arcs ) et retour à y par intégration.
J / Détermination de y sous la forme d'un développement limité ( ex fonction fraction rationnelle )

3.2 / Principes de pose des systèmes d' équations[modifier | modifier le wikicode]

Principe du rapport entre le nombre de données de l'échantillon et le nombre de paramètres de l'équation de la courbe de régression


Sélectionner une fonction parmi celles précédentes ( 2 à n paramètres )
Écrire l'équation attendue appliquée à chaque donnée de l'échantillon comme si la courbe passait par le point représentatif. Une explication de ce choix sera donnée. On obtient un système avec, en considérant la moitié de l'échantillon avec des x positifs, plus d'équations que de paramètres à déterminer.
Transformer, par développement et en isolant un monôme de fonction dans un membre et par dégrés croissants, et un produit/fraction dans l'autre membre.
Transformer le demi-système à valeurs de données en x positives en un système d'équations linéaires comportant toujours plus d'équations que d'inconnues. Cette dernière transformation consiste à prendre le logarithme de chaque membre de l'équation.
Application :
où n couples (xi,yi) sont connus, f considéré et p1 p2 les deux paramètres à déterminer s'ils existent
Pour è données :
Avec
Qui deviendra après les transformations successives :
IL s'agit ensuite de déterminer une "moyenne" de f2(p22) et de f2(p23):
a / moyenne arithmétique :
b / moyenne géométrique :
c / moyenne harmonique :
d / moyenne au plus près ou fractionnelle :
e / moyenne barycentrique : avec
On en déduit différents p2. Ceux-ci seront examinés et retenus ou non selon le phénomène étudié et les tests, en privilégiant la d et la a.

3.3 / Principe de transformation du système pour une résolution du système au plus près[modifier | modifier le wikicode]

le système d'équations linéaires ainsi obtenu sera résolu par la méthode au plus près afin d'obtenir les paramètres de la première courbe de régression de base.
Voir Trace et transposée de matrice/Résolution au mieux d'un système d'équations insoluble
http://fr.wikiversity.org/wiki/Trace_et_transposée_de_matrice/Résolution_au_mieux_d'un_système_d'équations_insoluble
Le système insoluble est alors ramené à un système comportant autant d'équations que d'inconnues, facile à résoudre.
Dans le cas où cela conduirait à des impossibilité, il faudra choisir plus de données ou éliminer le type de fonction de régression de base, choisie initialement et en choisir une autre. Procéder par élimination.

3.4 / Premiers exemples[modifier | modifier le wikicode]

Soit un échantillon minimum E de 7 couples de valeurs ( x,y ). (le cas de 5 couples est trop restrictif puisqu’il n'induit qu'un paramètre ).
Le problème consiste à trouver la courbe et l'équation à deux paramètres inconnus à déterminer , passant "au plus près" sans à priori.
et en application

3.4.1 / Etape 1 : décomposition en 2 échantillons EI impair et EP pair[modifier | modifier le wikicode]

Avec la résultante :
EI et EP seront analysés indépendamment.

3.4.2 / Polynôme au plus près[modifier | modifier le wikicode]

3.4.3 / Harmonique simple au plus près[modifier | modifier le wikicode]

Il s'agit d'approcher les échantillons EI et EP par une courbe-fonction pour EI, et une pour EP.

Analyse de la partie impaire EI[modifier | modifier le wikicode]

Méthode avec passage par trois points y(-1),y(0)y(1)pour EI à 7 données[modifier | modifier le wikicode]
Pour EI on vérifie que :
sin étant impair, les équations pour x<0 sont vérifiées de fait de l'imparité.
D'où :
Puis:
ET ENFIN :
D'où par la méthode des moindres carrés :



Méthode avec pasage par 1 point y(0)pour EI à 7 données[modifier | modifier le wikicode]
Pour EI on vérifie que :
sin étant impair, les équations pour x<0 sont vérifiées de fait de l'imparité.
ET ENFIN :
D'où , par la méthode de résolution des systèmes linéaires ( 2 inconnues en Log(a*sin(w)) et Log(cos(w)) pour 3 équations ):



Le résidu ( échantillonnage - sinusoïde calculée )sera traité par une sinusoïde si possible sinon il faudra considérer la suite.

S'il n'y a pas de solution vu les conditions de signe, on envisagera de considérer 9 données ou de tester un autre type de fonction impaire que la sinusoïde. On peut aussi considérer un nombre impair quelconque de données dès le départ mais il vaut mieux travailler par plages pour voir l'évolution des données.

Analyse de la partie paire EP[modifier | modifier le wikicode]

Méthode avec passage par trois points y(-1),y(0)y(1)pour EP à 7 données[modifier | modifier le wikicode]
Pour chaque couple de EP, on vérifie que :
sin étant pair, les équations pour x<0 sont vérifiées de fait de la parité.
D'où :
Puis:
ET ENFIN :
D'où :



Méthode avec passage par un point y(0)pour EP à 7 données[modifier | modifier le wikicode]
Pour chaque couple de EP ,on vérifie que :
sin étant impair, les équations pour x<0 sont vérifiées de fait de l'imparité.
d'où :
ET ENFIN :
D'où , par la méthode de résolution des systèmes linéaires ( 2 inconnues en Log(a*sin(w)) et Log(cos(w)) pour 3 équations ):



Le résidu ( échantillonnage - valeur centrale - ( 1-cosinusoïde calculée) )sera traité par une (1-cosinusoïde ) , si possible , sinon il faudra considérer la suite.

S'il n'y a pas de solution vu les conditions de signe, on envisagera de considérer 9 données ou de tester un autre type de fonction paire que la 1-cosinusoïde. On peut aussi considérer un nombre impair quelconque de données dès le départ mais il vaut mieux travailler par plages pour voir l'évolution des données.

......[modifier | modifier le wikicode]

_______

Détermination de la courbe et fonction de régression finale résultante[modifier | modifier le wikicode]

Principe de calcul de la régression sans écart[modifier | modifier le wikicode]