Documente Academic
Documente Profesional
Documente Cultură
Adapt 1
Adapt 1
Referin
Regulator
Amplificare
planificat
Comand
Proces
Variabile
auxiliare
Ieire
esenial n acest sistem const n proiectarea unui mecanism de ajustare care s fie
stabil i s determine eroarea e s tind la zero.
Model
referin
yM
Parametrii reguatorului
r
Referin
Regulator
_
Mecanism
de ajustare
e
+
y
Proces
Ieire
Fig. 1.2. Schema bloc a unui sistem adaptiv cu model referin (etalon)
n primele aplicaii ale acestor sisteme, pentru a realiza acest cerin s-a
utilizat o metod de tip gradient. Fie vectorul care conine parametrii ajustabili ai
regulatorului. Metoda de actualizare a parametrilor const n reducerea erorii
ptratice e 2 () prin ajustarea lui de-a lungul direciei celei mai rapide pante,
astfel:
Refetin
r
Parametrii procesului
Proiectarea
regulatorului
Parametrii
regulatorului
Comanda
Regulator
u
Estimatorul
parametrilor
Proces
Ieirea
y
Regulator
(neliniar)
Comand
Hiperstare
Proces
Ieire
Calcul
hiperstare
Metoda celor mai mici ptrate poate fi aplicat unei clase largi de probleme.
Metoda este simpl n cazul unui proces descris printr-un model matematic de
forma:
y (i ) = 1 (i )10 + 2 (i )02 + L + n (i )0n = T (i )0
(2.1)
unde y este variabila observat, 10 , 02 ,K, 0n sunt parametrii modelului ce trebuie
determinai, iar 1 , 2 ,K, n sunt funcii cunoscute care pot depinde de alte
variabile cunoscute. Definim vectorii:
T (i ) = [1 (i ) 2 (i ) L n (i )] , 0 = [10
02 L 0n ]T
Indexul i din (2.1) aparine unei muimi discrete i reprezint timpul la pasul i .
Funciile i se numesc variabile regresoare sau regresori, iar modelul (2.1) se
numete
model
regresiv.
Perechile
observaiilor
i
regresorilor
{( y (i ), (i )), i = 1, 2,K, t} se obin prin efectuarea unui experiment. Se pune
problema determinrii parametrilor astfel nct ieirile calculate cu modelul (2.1)
se apropie ct mai mult posibil de variabilele msurate y (i ) n sensul celor mai
mici ptrate. Rezult c parametrii trebuie alei astfel nct s minimizeze
funcia cost:
2
1 t
V (, t ) = y (i ) T (i )
(2.2)
2 i =1
y ( 2) K y (t )]T
T (1)
(t ) = M
T (t )
P (t ) = (t ) (t )
t
= (i )T (i )
i =1
(2.3)
1 t 2
1
1
(i ) = E T E = || E ||2
2 i =1
2
2
(2.4)
T = T Y
(2.5)
Dac matricea T este nesingular, mininul este unic i este dat de:
= (T ) 1 T Y
(2.6)
(2.7)
) (
= Y T I ( T ) 1 Y + ( T ) 1 T Y T ( T ) 1 T Y
(2.8)
Primul termen din membrul drept este independent de , iar cel de-al doilea este
ntotdeauna pozitiv. Minimul se obine pentru:
= = (T ) 1 T Y
Observaii:
1. Ecuaia (2.5) se numete ecuaie normal. Ecuaia (2.6) poate fi scris sub
forma:
1
t
t
(2.9)
(t ) = (i )T (i ) (i ) y (i ) = P (t ) (i ) y (i )
i =1
i =1
i =1
22
n (1)
(1) y (1) 1 (1)
M n
M M M 1
(t ) y (t ) 1 (t )
n (t )
sau
E = Y 11 2 2 L n n
unde i sunt coloanele matricei . Probema celor mai mici ptrate poate fi
interpretat ca probema gsirii constantelor 1 , 2 ,K, n astfel nct vectorul
8
i = 1, K , t
care este identic cu ecuaia normala (2.5). Vectorul este unic dac vectorii
1 , 2 ,K, n sunt liniar independeni.
Calculul recursiv
t 1
i =1
i =1
P 1 (t ) = T (t ) (t ) = (i )T (i ) = (i )T (i ) + (t )T (t ) = P 1 (t 1) + (t )T (t )
(2.14)
Estimrile parametrului bazate pe metoda celor mai mici ptrate sunt ate
de ecuaia (2.9):
t
t 1
(t ) = P(t ) (i ) y (i ) = P(t ) (i ) y (i ) + (t ) y (t )
i =1
i =1
(i) y (i) = P 1 (t 1) (t 1) = P 1 (t ) (t 1) (t )T (t ) (t 1)
i =1
= (t 1) + P (t )(t ) y (t ) T (t ) (t 1) = (t 1) + K (t )(t )
unde K (t ) = P (t )(t ) , (t ) = y (t ) T (t ) (t 1) .
Eroarea (t ) poate fi interpretat ca eroarea n predicia cu un pas a
semnalului y (t ) bazat pe estimarea (t 1) .
9
P (t ) = T (t ) (t )
) = (
1
(t 1) (t 1) + (t )T (t )
) = (P
1
(t 1) + (t )T (t )
T (t ) P (t 1)
1
t t0 . Dndu-se (t0 ) i P (t0 ) = T (t0 ) (t0 ) , estimarea (t ) satisface
urmtoarele ecuaii recursive:
(t ) = (t 1) + K (t ) y (t ) T (t ) (t 1)
(2.15)
= I K (t )T (t ) P (t 1)
(2.16)
T (t ) P (t 1)
(2.17)
Observaii:
1. Intuitiv, valoarea estimat (t ) din (2.15) se obine adunnd o corecie la
estimarea anterioar (t 1) . Aceast corecie este proporional cu
y (t ) T (t ) (t 1) , unde ultimul termen poate fi interpretat ca valoarea predictiv
a lui y la momentul t obinut prin modelul (2.1). Termenul corecie este astfel
10
(2.18)
1
= Y T (t 1) I (t 1) T (t 1) (t 1) (t 1) Y (t 1)
T
T
+ (t 1) T (t 1) (t 1) (t 1) + y (t ) T (t ) y (t ) T (t ) (2.19)
) (
)(
Cum primul termen din membrul drept este independent de , iar termenii rmai
sunt ptratici n , rezult c V (, t ) poate fi uor minimizat n raport cu .
Precizm c matricea P (t ) este definit numai dac matricea T (t ) (t )
este nesingular. Deoarece
t
T (t ) (t ) = (i )T (i )
i =1
P (t ) = P01 + T (t ) (t )
prin
timp. Prin extinderea metodei de estimare bazat pe c.m.m.p. se pot acoperii dou
cazuri: cazul n care parametrii se pot modifica brusc, dar destul de rar i cazul n
care parametrii se pot modifica continuu, dat lent.
Cazul modificrilor brute ale parametrilor poate fi acoperit prin resetare,
adic matricea P din algoritmul c.m.m.p. (Teorema 2.3) este resetat periodic la
valoarea I , unde este un numr cu valoare mare. Acesta face ca matricea
amplificatoare K (t ) s ia valori mari i ca estimarea s fie actualizat cu unpas
mare.
Cazul n care parametrii se modific continuu, dat lent poate fi acoperit prin
modele matematice relativ simple. O abordare simpl const n nlocuirea
criteriului (2.2) cu criteriul:
2
1 t
(2.20)
V (, t ) = t i y (i ) T (i )
2 i =1
unde parametrul ales astfel nct 0 < 1 , se numete factor de uitare sau
factor de reducere. Funcia criteriu din (2.20) realizeaz o ponderare variabil n
timp a datelor. Datele cele mai recene sunt ponderate cu 1, pe cnd datele cu o
vechime de n pai sunt ponderate cu n . De aceea, metoda se mai numete i cu
uitare exponenial sau reducere exponenial. Repetnd calculele din Teorema
2.3, dar pentru criteriul (2.20), se obine urmtorul rezultat.
Teorema 2.4. Algoritmul recursiv al c.m.m.p. cu uitare exponenial.
Presupunem c matricea (t ) are rang maxim pentru orice t t0 . Parametrul
care minimizeaz funcia (2.20) este dat recursiv prin:
(t ) = (t 1) + K (t ) y (t ) T (t ) (t 1)
(2.21)
P (t ) = I K (t ) (t ) P (t 1) /
Un dezavantaj al uitrii exponeniale este acela c datele sunt reduse ciar
dac P (t )(t ) = 0 . Aceast condiie nseamn c y (t ) nu mai conine nici un fel de
informaie nou despre parametrul . Din (2.21) se vede c n acest caz matricea P
crete exponenial cu viteza .
Algoritmi simplificai
O valoare msurat
y (t ) = T (t )
(2.22)
determin proiecia vectorului parametrilor pe (t ) . De deduce imediat c
pentru determinarea univoc a vectorului sunt necesare n msurtori, unde
(1),K, (n) acoper spaiul n . Considerm c este disponibil estimarea
(t 1) i c se obine o nou valoare msurat de forma (2.22). Deoarece valoarea
msurat y (t ) conine informaie numai pe direcia (t ) din spaiul parametrilor,
apare ca natural ideea de a alege ca nou estimare valoarea (t ) care minimizeaz
|| (t ) (t 1) || cu condiia ca y (t ) = T (t ) (t ) . Pentru a lua n considerare
aceast constrngere introducem un multiplicator Lagrange notat . Funcia cost
care trebuie minimizat capt forma:
)(
) (
T
1
(t ) (t 1) (t ) (t 1) + y (t ) T (t ) (t )
2
Derivnd acesat relaie n raport cu (t ) i , se obine:
V=
(t ) (t 1) (t ) = 0
y (t ) T (t ) (t ) = 0
(t )
y (t ) T (t ) (t 1)
(2.23)
(t )(t )
Acest algoritm se numete algoritmul de proiecie Kaczmarz. Pentru a putea
modifica lungimea pasului pentru ajustarea parametrului (t ) se introduce un
factor astfel:
(t )
(t ) = (t 1) + T
y (t ) T (t ) (t 1)
(t )(t )
Pentru evitarea mpririi prin 0 cara apare atunci cnd (t ) = 0 , la numitor se
(t ) = (t 1) +
(t )
y (t ) T (t ) (t 1)
T
+ (t )(t )
13
(2.24)
+ (1 )T
+ T
Aceast valoare proprie este mai mic dect 1 dac 0 < < 2 . Celelalte valori
proprii ale lui A sunt egale cu 1.
Algoritmul de proiecie presupune c datele sunt generate prin (2.22) far
erori. Cnd datele sunt afectate de zgomot, adic sunt generate printr-o relaie de
forma
y (i ) = T (i )0 + e(i )
unde 0 este vectorul parametrilor adavrai, iar { e(i ), i = 1, 2,K} este o secven
de variabile aleatoare cu media nul, uniform distribuite, un algoritm simplificat
este dat de
(t ) = (t 1) + P(t )(t ) y (t ) T (t ) (t 1)
(2.25)
unde
P (t ) = T (i )(i )
(2.26)
i =1
V () = e (t ) y () T () d
(2.27)
T
e
(t ) = e (t ) () y ()d
(
)
(
)
d
0
0
(2.28)
(2.29)
este inversabi. Prin deferenierea ecuaiei (2.28) este posibil obinerea unor
ecuaii recursive. Algoritmul de estimare este dat de urmtoarea teorem:
Teorema 2.5. Algoritmul c.m.m.p. n cazul continuu.
Presupunem c matricea R (t ) din (2.29) este invesabil pentru orice t. Estimarea
care minimizeaz (2.27) satisface relaiile:
&
(t ) = P (t )(t )e(t )
(2.30)
T
e(t ) = y (t ) (t ) (t 1)
(2.30)
T
&
(2.30)
P (t ) = P (t ) P (t )(t ) (t ) P (t )
P(t ) = T ()( )d
0
15