Documente Academic
Documente Profesional
Documente Cultură
1/17
Exerciţiul 5.4
167
Metode de identificare şi validare
3/17
168
Metode de identificare şi validare
4/17
169
Metode de identificare şi validare
5/17
170
Metode de identificare şi validare
6/17
171
Metode de identificare şi validare
. Metode bazate pe optimizarea parametrilor
• Modelele din clasa ARMAX pot fi identificate şi cu ajutorul altor metode decît MCMMP şi MVI.
• Cu cît modelul este mai complex, cu atît metoda utilizată este mai laborioasă.
• O parte dintre metodele utilizate în acest scop se bazează atît pe revizuirea/adaptarea MCMMP,
cît şi pe algoritmi care folosesc Tehnici de Optimizare.
Proceduri recursive cu ajutorul cărora un punct de optim (maxim sau minim) al unei funcţii
criteriu este aproximat printr-un proces iterativ exprimat de o ecuaţie cu reactualizare aditivă.
Matricea def 2V
Hessiană
V (θ ) (V )(θ ) (θ ) R nn
funcţie care trebuie
i j i , j1,n
să fie continuă Jacobianul Matrice simetrică.
V Exemplu gradientului
V Principiul metodei
V
V (k) • În jurul punctului de optim, prima derivată (sau norma sa) este
aproximativ nulă, iar derivata a doua este strict pozitiv/negativ definită.
• Se construieşte parabola (paraboloidul) care trece prin punctul curent
0 k * (k,V(k)) şi are aceeaşi tangentă şi derivată secundă ca funcţia criteriu.
k+1 • Punctul de minim/maxim al parabolei este k+1. 173
Metode de identificare şi validare
. Metode bazate pe optimizarea parametrilor
Metoda Newton-Raphson (continuare)
Trebuie construit paraboloidul care verifică 3 proprietăţi de coincidenţă cu funcţia criteriu Vk
în punctul curent.
Paraboloidul 1
Vk (θ) V (θk ) V (θk ) (θ θk ) (θ θk )T V (θ k ) (θ θk )
T
Taylor 2 θ R n
Exerciţiu • Arătaţi că paraboloidul Taylor verifică cele 3 proprietăţi de coincidenţă.
Pentru a determina punctul de optim al paraboloidului Taylor, se va anula gradientul acestuia.
Reguli de (rT θ) r 1
θk 1 θk V (θ k ) V (θk )
derivare (θT Rθ) R RT θ k N
Δ k
Matricea Hessiană este
simetrică şi inversabilă Vk (θ) V (θ k ) V (θ k )(θ θ k ) 0
în vecinătatea optimului. 174
Metode de identificare şi validare
. Metode bazate pe optimizarea parametrilor
Metoda Newton-Raphson (continuare)
def Termenul corector are semn opus gradientului,
1
Δ k V (θ k ) V (θ k ) doarece matricea Hessiană este strict
pozitiv/negativ definită.
k N
minus
• Ce semnificaţie are acest rezultat?
k k 1 V (θ k ) V (θ k 1 )
Se trece la pasul următor
θk aproximaţia de precizie
Date de ieşire
k numărul de iteraţii pentru atingerea preciziei dorite
pasul variabil? def
1
Fk ( ) V θ k V (θ k ) V (θ k ) 177
R
Metode de identificare şi validare
. Metode bazate pe optimizarea parametrilor
Metoda Newton-Raphson (continuare)
Algoritmul Newton-Raphson cu pas variabil
V : R n R (funcţie criteriu, de 2 ori derivabilă)
Date de intrare
0 (prag de precizie)
θ0 Rn , 0 R alese fie arbitrar, fie cu ajutorul unui algoritm specific
V (θ0 ) gradientul iniţial
Iniţializare Exerciţiu Justificaţi acest algoritm în
V (θ k ) matricea Hessiană iniţială manieră riguroasă.
k 0 indicele iterativ iniţial
•
Buclă iterativă Se vor utiliza regulile cunoscute de derivare
1
Cît timp k V (θ k ) V (θ k ) pentru reactualizarea pasului variabil.
1
Se reactualizează aproximaţia optimului θk 1 θk k V (θ k ) V (θk )
V θ k 1 V (θ k ) V θ k
T 1
k k 1 V (θ k ) V (θ k 1 )
Se trece la pasul următor
θk aproximaţia de precizie
Date de ieşire 178
k numărul de iteraţii pentru atingerea preciziei dorite
Metode de identificare şi validare
. Metode bazate pe optimizarea parametrilor
Metoda Newton-Raphson (continuare)
• MNR poate fi utilizată şi pentru a rezolva unele ecuaţii transcendente sau în aproximarea unor
numere transcendente cum ar fi , e, ln 2 , etc.
Exemplu tg ( x) 1 x
4
• Aproximarea numărului /4 se poate realiza plecînd
de la funcţia criteriu a cărei primă derivată este: f ( x) tg ( x) 1
• Este evident că anularea derivatei conduce la optimizarea funcţiei:f ( x) ln(cos( x)) x C
Exerciţiu • Folosind exemplul anterior, determinaţi numărul cu 7 zecimale exacte.
• Pentru a diminua complexitatea metodei, se poate renunţa la a doua derivată.
Metoda gradientului (M) (Cauchy)
V Exemplu
V • De această dată, aproximaţia următoare se determină prin
intersectarea tangentei (hiperplanului tangent) care trece prin
V (k) punctul curent (k,V(k)) cu axa orizontală (hiperplanul principal).
V (θ k ) V (θ k ) Exerciţiu
2
θ k 1 θ k V (θ k ) θ k 1 θ k k V (θ k )
0 k * k N
k+1 M cu pas constant
T
k 1 k V θk 1 V θk
M este utilizată atunci cînd derivata a doua fie nu există,
M cu pas variabil k N
fie nu se poate evalua.
Viteza de convergenţă a M este însă modestă chiar şi în cazul pasului variabil. 179
Metode de identificare şi validare
. Metode bazate pe optimizarea parametrilor
Metoda Gauss-Newton (MGN)
N
V (θ) 2 [ n, θ]
Metodă aplicabilă în cazul funcţiilor criteriu de tip pătratic
(cum sunt şi cele din IS).
n 1
• Dacă funcţia criteriu este de 2 ori derivabilă, MNR poate fi adaptată reziduu
astfel încît să se evite evaluarea matricii Hessiene.
Există 2 abordări
Aproximarea
Aproximarea matricii
matricii Hessiene
Hessiene Liniarizarea reziduurilor
N Exerciţiu
N V (θ) 2 [ n, θ][ n, θ]
θ R n
V (θ) [ n, θ]
2
n 1
n 1 N N
V (θ) 2 [ n, θ][ n, θ] 2 [ n, θ] [ n, θ]
T
n 1 n 1 θ R n
termen principal termen parazit
• Dacă se efectuează un număr suficient de mare de iteraţii, reziduurile deponderează puternic
matricea Hessiană a acestora în termenul parazit.
În vecinătatea optimului,
N reziduul are valori neglijabile.
V (θ) 2 [ n, θ][ n, θ]
T
n 1
θ R n 180
Metode de identificare şi validare
. Metode bazate pe optimizarea parametrilor
Metoda Gauss-Newton (final)
N
MNR V (θ) 2 [ n, θ][ n, θ]
n 1
1 θ R n
θk 1 θk k V (θ k ) V (θk )
N
V (θ) 2 [ n, θ]
n 1
k N N
V (θ) 2 [ n, θ][ n, θ]
T
n 1
θ R n
1
N T
N
θ k 1 θ k k [ n, θ k ][ n, θ k ] [ n, θ k ][ n, θ k ]
n 1 n 1
k N
Deşi matricea Hessiană a criteriului pătratic nu a fost înlăturată din expresia
iterativă principală, în calculul acesteia nu intervine decît gradientul reziduurilor.
Exerciţiu
• A doua abordare se bazează pe liniarizarea reziduurilor, adică pe aproximarea reziduurilor
prin dezvoltarea acestora în serie Taylor de ordin I.
[n, θ] [n, θk ] [n, θk ] (θ θk )
T