Une page de Wikiversité, la communauté pédagogique libre.
Début de la boite de navigation du chapitre
fin de la boite de navigation du chapitre
En raison de limitations techniques, la typographie souhaitable du titre, «
Techniques de régressions au plus près : Définition de la régression au plus près Techniques de régressions au plus près/Définition de la régression au plus près », n'a pu être restituée correctement ci-dessus.
On appellera régression au plus près toute forme suivante correspondant aux conditions suivantes :
{
y
r
e
g
(
x
r
)
=
K
0
+
K
1
F
r
e
g
1
(
x
r
)
+
K
2
F
r
e
g
2
(
x
r
)
+
K
3
F
3
(
x
r
)
+
⋯
+
K
i
F
r
e
g
i
(
x
r
)
+
⋯
+
K
n
F
r
e
g
n
(
x
r
)
y
(
x
r
)
−
y
r
e
g
(
x
r
)
=
ϵ
(
x
r
)
∀
i
,
y
r
e
g
(
x
r
i
)
=
K
i
+
K
r
e
g
1
F
r
e
g
1
(
x
r
i
)
+
K
2
F
r
e
g
2
(
x
r
i
)
+
K
3
F
r
e
g
3
(
x
r
i
)
+
⋯
+
K
i
F
r
e
g
i
1
(
x
r
i
)
+
⋯
+
K
n
F
r
e
g
n
(
x
r
i
)
∀
i
,
y
i
(
x
r
i
)
−
y
r
e
g
(
x
r
i
)
=
ϵ
(
x
r
i
)
ϵ
(
x
r
)
=
Σ
ϵ
(
x
r
i
)
/
n
u
l
/
o
u
/
n
o
n
K
0
=
Σ
K
i
S
D
M
C
=
Σ
ϵ
2
(
x
r
i
)
/
m
i
n
i
m
u
m
{\displaystyle {\begin{cases}y_{reg}(xr)=K_{0}+K_{1}F_{reg1}(xr)+K_{2}F_{reg2}(xr)+K_{3}F_{3}(xr)+\cdots +K_{i}F_{regi}(xr)+\cdots +K_{n}F_{regn}(xr)\\y(xr)-y_{reg}(xr)=\epsilon (xr)\\\forall i,y_{reg}(xr_{i})=K_{i}+K_{reg1}F_{reg1}(xr_{i})+K_{2}F_{reg2}(xr_{i})+K_{3}F_{reg3}(xr_{i})+\cdots +K_{i}F_{regi1}(xr_{i})+\cdots +K_{n}F_{regn}(xr_{i})\\\forall i,y_{i}(xr_{i})-y_{reg}(xr_{i})=\epsilon (xr_{i})\\\epsilon (xr)=\Sigma \epsilon (xr_{i})/nul/ou/non\\\ K_{0}=\Sigma K_{i}\\SDMC=\Sigma \epsilon ^{2}(xr_{i})/minimum\\\end{cases}}}
AVEC
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} i>=1 \\ \exists!un/i/au/moins/tel/que : \epsilon(xr_1) \neq 0 \\ \epsilon(xr_1)<= (/ou/non)/à/limite/l_i/initiale/maximale \\ F_{regi} / de/mêmes/natures/ou/non \\ SDMC <= (/ou/non)/à/limite/l/initiale/maximale \end{cases} }
On appellera régression idéale LA régression de type ci-dessus telle qu'en plus
S
D
E
=
Σ
ϵ
(
x
r
i
)
=
0
{\displaystyle SDE=\Sigma \epsilon (xr_{i})=0}
, E comme écart, S comme somme, D comme des, C comme carrés.
On appellera régressions monofonctionnelles les régression telles que tous les
F
i
{\displaystyle F_{i}}
soient de même nature
Exemple 1:
y
r
e
g
1
(
x
r
)
=
K
11
sin
(
w
11
x
r
)
+
K
21
sin
(
w
21
x
r
)
+
K
31
sin
(
w
31
x
r
)
{\displaystyle y_{reg1}(xr)=K_{11}\sin(w_{11}xr)+K_{21}\sin(w_{21}xr)+K_{31}\sin(w_{31}xr)}
Exemple 2:
y
r
e
g
2
(
x
r
)
=
K
1
+
K
12
(
1
−
cos
(
w
12
x
r
)
)
+
K
2
+
K
22
(
1
−
cos
(
w
22
x
r
)
)
+
K
32
sin
(
w
32
x
r
)
+
K
42
sin
(
w
42
x
r
)
{\displaystyle y_{reg2}(xr)=K_{1}+K_{12}\left(1-\cos(w_{12}xr)\right)+K_{2}+K_{22}\left(1-\cos(w_{22}xr)\right)+K_{32}\sin(w_{32}xr)+K_{42}\sin(w_{42}xr)}
On appellera ordre global le nombre de fonctions de même nature ou non ; ordre partiel le nombre de fonctions entrant dans la régression de même nature ( dans l'exemple : ordre 3 global et 3 partiel en sinus )
Pour exprimer que la Somme Des Moindres Carrés
S
D
M
C
{\displaystyle SDMC}
est minimale, on écrira que toutes ses dérivées partielles par rapport aux écarts
ϵ
(
x
r
i
)
=
y
i
(
x
r
i
)
−
y
r
e
g
(
x
r
i
)
{\displaystyle \epsilon (xr_{i})=y_{i}(xr_{i})-y_{reg}(xr_{i})}
sont nulles
∀
i
{\displaystyle \forall i}
.
La forme générale peut aussi se mettre sous la forme plus facile à manipuler et faisant appel à des calculs plus simples, moins nombreux et plus logiques :
{
y
r
e
g
(
x
r
)
=
y
0
+
k
1
I
F
1
I
(
x
r
)
+
k
2
I
F
2
I
(
x
r
)
+
⋯
+
k
i
I
F
i
I
(
x
r
)
+
⋯
+
k
m
I
F
m
I
(
x
r
)
+
k
0
+
k
1
P
(
F
1
P
(
0
)
−
F
1
P
(
x
r
)
)
+
k
2
P
(
F
2
P
(
0
)
−
F
2
P
(
x
r
)
)
+
⋯
+
k
j
P
(
F
j
P
(
0
)
−
F
j
P
(
x
r
)
)
+
⋯
+
k
n
P
(
F
n
P
(
0
)
−
F
n
P
(
x
r
)
)
y
0
=
y
(
0
)
,
F
∗
I
(
x
r
)
/
I
m
p
a
i
r
e
/
F
∗
I
(
0
)
=
0
,
F
∗
P
(
x
r
)
/
P
a
i
r
e
y
(
x
r
)
−
y
r
e
g
(
x
r
)
=
ϵ
(
x
r
)
∀
i
,
y
r
e
g
(
x
r
i
)
=
y
(
x
r
)
−
y
r
e
g
(
x
r
)
=
y
0
+
k
1
I
F
1
I
(
x
r
i
)
+
k
2
I
F
2
I
(
x
r
i
)
+
⋯
+
k
i
I
F
i
I
(
x
r
i
)
+
⋯
+
k
m
I
F
m
I
(
x
r
i
)
+
k
i
+
k
1
P
(
F
1
P
(
0
)
−
F
1
P
(
x
r
i
)
)
+
k
2
P
(
F
2
P
(
0
)
−
F
2
P
(
x
r
i
)
)
+
⋯
+
k
j
P
(
F
1
P
(
0
)
1
−
F
j
P
(
x
r
i
)
)
+
⋯
+
k
n
P
(
F
1
P
(
0
)
−
F
n
P
(
x
r
i
)
)
+
e
p
s
i
l
o
n
(
x
r
)
∀
i
,
y
i
(
x
r
i
)
−
y
r
e
g
(
x
r
i
)
=
ϵ
(
x
r
i
)
ϵ
(
x
r
)
=
Σ
ϵ
(
x
r
i
)
/
n
u
l
/
o
u
/
n
o
n
k
0
=
Σ
k
i
S
D
M
C
=
Σ
ϵ
2
(
x
r
i
)
/
m
i
n
i
m
u
m
{\displaystyle {\begin{cases}y_{reg}(xr)=y_{0}+k_{1I}F_{1I}(xr)+k_{2I}F_{2I}(xr)+\cdots +k_{iI}F_{iI}(xr)+\cdots +k_{mI}F_{mI}(xr)+k_{0}+k_{1P}(F_{1P}(0)-F_{1P}(xr))+k_{2P}(F_{2P}(0)-F_{2P}(xr))+\cdots +k_{jP}(F_{jP}(0)-F_{jP}(xr))+\cdots +k_{nP}(F_{nP}(0)-F_{nP}(xr))\\y_{0}=y(0),F_{*I}(xr)/Impaire/F_{*I}(0)=0,F_{*P}(xr)/Paire\\y(xr)-y_{reg}(xr)=\epsilon (xr)\\\forall i,y_{reg}(xr_{i})=y(xr)-y_{reg}(xr)=y_{0}+k_{1I}F_{1I}(xr_{i})+k_{2I}F_{2I}(xr_{i})+\cdots +k_{iI}F_{iI}(xr_{i})+\cdots +k_{mI}F_{mI}(xr_{i})+k_{i}+k_{1P}(F_{1P}(0)-F_{1P}(xr_{i}))+k_{2P}(F_{2P}(0)-F_{2P}(xr_{i}))+\cdots +k_{jP}(F_{1P}(0)1-F_{jP}(xr_{i}))+\cdots +k_{nP}(F_{1P}(0)-F_{nP}(xr_{i}))+epsilon(xr)\\\forall i,y_{i}(xr_{i})-y_{reg}(xr_{i})=\epsilon (xr_{i})\\\epsilon (xr)=\Sigma \epsilon (xr_{i})/nul/ou/non\\\ k_{0}=\Sigma k_{i}\\SDMC=\Sigma \epsilon ^{2}(xr_{i})/minimum\\\end{cases}}}
Rechercher la meilleure fonction régressive F1 telle que :
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} y_{reg}(xr) = k + k_1F_1(xr)+ \epsilon_1{(xr)} \\ SDMC_1 = \Sigma \epsilon_1^2(xr_{1i}) /minimum/dans/la/liste/des/F1/testées \\ SDE = \Sigma \epsilon(xr_{i}) = 0 /éventuellement/et/si/possible \end{cases} }
Réitérer l'opération sur
ϵ
(
x
r
1
)
{\displaystyle \epsilon (xr_{1})}
Échec de l’analyse (fonction inconnue « \begin{cases} »): {\displaystyle \begin{cases} \epsilon_1{(xr)} = y_{reg1}(xr) = k_2F_2(xr)+ \epsilon_2{(xr)} \\ SDMC_2 = \Sigma \epsilon_2^2(xr_{2i}) /minimum/dans/la/liste/des/F2/testées \\ SDE = \Sigma \epsilon(xr_{i}) = 0 /éventuellement/et/si/possible \end{cases} }
Arrêter quand on le désire, par exemple après avoir atteint une limite pour SDMC.