Sunteți pe pagina 1din 20

7.

PRINCIPII DE ESTIMARE A PARAMETRILOR


MODELELOR DINAMICE ALE PROCESELOR
7.1 Considera\ii generale
Identificarea, este opera\ia de determinare a caracteristicilor
dinamice ale unui proces (sistem) a c[ror cunoa]tere este necesar[
pentru conceperea ]i punerea @n practic[ a unui sistem performant de
reglare.
S[ men\ion[m c[ modelele dinamice sunt de dou[ feluri:
1) modele neparametrice (r[spuns frecven\ial, indicial)
2) modele parametrice (func\ia de transfer, ecua\ia
diferen\ial[ sau ecua\ia cu diferen\e).
Pe noi ne intereseaz[ @n continuare identificarea modelelor
dinamice parametrice e]antionate care sunt cele mai potrivite pentru
conceperea ]i ajustarea sistemelor numerice de comand[ ]i reglare.
Pentru identificarea experimental[ a unui model dinamic
trebuie parcurse urm[toarele etape:
1) achizi\ia datelor intrare/ie]ire sub un protocol de
experimentare;
2) alegerea structurii modelului;
3) estimarea parametrilor modelului;
4) validarea modelului identificat.
O opera\ie de identificare complet[ trebuie @n mod necesar s[
comporte cele patru faze indicate mai sus. Metodele specifice utilizate
@n fiecare faz[ depind de modelul c[utat (parametric sau neparametric,
continuu sau e]antionat).
Identificarea se caracterizeaz[ prin trei elemente: o colec\ie de
date , o colec\ie de modele ]i un criteriu ]i const[ @n determinarea
unui model din care s[ justifice c`t mai bine colec\ia de date @n
sensul criteriului .
Colec\ia de date reprezint[ o secven\[ de perechi intrare -
ie]ire generat[ de un sistem @n condi\iile {u(k), y(k), ..., k = 1, ..., N}
experimentului .
Colec\ia de modele (descrieri intrare - ie]ire sau @n spa\iul
st[rilor) este parametrizat[ dup[ vectorul parametrilor necunoscu\i
M
(care poate con\ine ca element ]i ordinul sistemului)
Criteriul este precificat printr-o func\ie criteriu ( sau de cost)
care trebuie extremizat[ (de regul[ minimizat[).
Ipoteza c[ sistemul care genereaz[ colec\ia de date
apar\ine colec\iei de modele corespunde punctului de vedere, c[
exist[ un sistem real, caracterizat de parametrii , scopul estim[rii
fiind s[ descopere acest sistem. Cu alte cuvinte, trebuie determinat[ o
func\ie de secven\ele de observa\ie ale intr[rii ]i ie]irii:
(7.1)

{u(1), ..., u(N), y(1), ..., y(N)} =

(u
T
, y
T
)
cu: u = [u(1) ...u(N)]
T
care s[ aproximeze @ntr-o c`t mai bun[ m[sur[ pe .
y = [y(1) ... y(N)]
T
Func\ia se nume]te estimator, iar valoarea numeric[

(., .)
luat[ pentru secven\ele precizate se nume]te {u(k), y(k), k = 1, ..., N}
estimat sau estima\ie. Problema teoretic[ de baz[ este s[ se
investigheze apoi dac[ estimatul parametrilor converge (cu

probabilitatea unu) la pe m[sur[ ce lungimea colec\iei de date cre]te


(proprietate denumit[ consisten\[).
Posibilit[\ile oferite de calculatorul numeric au permis
elaborarea unor algoritmi de estimare automat[ a parametrilor
modelelor e]antionate ale proceselor.
Principiul estim[rii parametrilor modelelor discrete este ar[tat
@n figura de mai jos:
C.N.A. Proces C.A.N.
Modelul eantionat
ajustabil
Algoritm adaptare
parametric
parametrii modelului
u(t) y(t)
+
-
y(t)
Procesul discretizat
^
Fig. 7.1
Modelul e]antionat cu parametrii ajustabili este implementat
pe un calculator.
Eroarea @ntre ie]irea procesului la momentul t, y(t) ]i cea a
ie]irii prezise prin model , numit[ eroare de predic\ie, este

y (t)
utilizat[ de un algoritm de adaptare parametric[ care la fiecare
moment de e]antionare va modifica parametrii modelului astfel @nc`t
s[ minimizeze aceast[ eroare.
Intrarea este @n general un SPAB de nivel mic, generat[ de un
calculator (o succesiune de impulsuri dreptunghiulare cu durat[
variabil[ aleatoriu).
O dat[ modelul ob\inut, o validare corect[ poate fi f[cut[ prin
teste statistice asupra erorii de predic\ie ]i a ie]irii prezise . (t)

y (t)
Testul de validare permite pentru un proces dat s[ alegem cel mai bun
model, respectiv cea mai bun[ structur[ ]i cel mai bun algoritm pentru
estimarea parametrilor.
Unul din elementele cheie pentru identificarea modelelor
proceselor este algoritmul de adaptare parametric[ (AAP) care
modific[ parametrii ajustabili ai modelului plec`nd de la informa\iile
primite asupra sistemului la fiecare pas de e]antionare.
Acest algoritm are o structur[ recursiv[ adic[ noua valoare a
parametrilor este egal[ cu valoarea precedent[ plus un termen de
corec\ie care va depinde de ultimele m[sur[tori.
Se define]te @n general un vector al parametrilor ale c[rui
componente sunt parametrii care trebuie estima\i.
Algoritmii de adaptare parametric[ au structura urm[toare:

noua estimatie
a parametrilor
(vector)

estimatia precedenta
a parametrilor
(vector)

+
+

factor
adaptare
(matrice)

functia
masuratorilor
(vector)

functia de
eroare de predictie
(scalar)

7.2 Algoritmi recursivi pentru identificarea parametric[


7.2.1 Aproximare euristic[
Consider[m un model discret al unui proces descris prin:
(7.2) y(t + 1) = a
1
y(t) + b
1
u(t)
unde:
a
1
- parametru cunoscut
b
1
- parametru necunoscut, b
1
> 0
Scopul nostru este s[ estim[m valoarea parametrului b
1
.
Modelul care va fi identificat va avea aceea]i structur[ (7.2) ca ]i
procesul.
Pentru a estima parametrul b
1
, va trebui s[ construim un
model ajustabil de forma ecua\iei (7.2), unde b
1
va fi @nlocuit prin
estimatul s[u ]i va fi determinat printr-un algoritm de adaptare

b
1
(t)
parametric[.
Efectul acestui algoritm va trebui s[ se concretizeze printr-o
reducere a diferen\ei @ntre ie]irea real[ (a procesului) ]i ie]irea prezis[
de acest model ajustabil.
Modelul ajustabil de predic\ie (apriori) va fi deci descris prin:
(7.3)

y
0
(t + 1) = a
1
y(t)+

b
1
(t) u(t)
unde:
este o estima\ie a lui b
1
la momentul t. Vom defini

b
1
(t)
eroarea de predic\ie (apriori)
(7.4)
0
(t + 1) = y(t + 1)

y
0
(t + 1)
Examin[m acum c`teva situa\ii @n func\ie de valorile lui b
1
]i
:

b
1
Caz 1 u(t) = treapt[ > 0;

b
1
< b
1
- @n acest caz
0
(t) > 0

y(t)
y
^
o
(t)
(t)>0
0
Caz 2 u(t) = treapt[ > 0;

b
1
> b
1
- @n acest caz
0
(t) < 0
y
^
o
(t)
y(t)
(t)<0
0
Analiz`nd cele dou[ situa\ii, se poate propune un algoritm de
adaptare parametric[ de forma:
(7.5)

b
1
(t + 1) =

b
1
(t) + f
0
(t + 1)
unde f > 0 este c`tigul (factorul) de adaptare.
S[ men\ion[m c[ aceast[ ecua\ie are forma unui integrator
numeric, ceea ce garanteaz[ memoria algoritmului (dac[
).
0
(t + 1) = 0,

b (t + 1) =

b (t)
Vom studia evolu\iile lui cu acest algoritm:

b
1
(t)
u(t) > 0;

b
1
< b
1
f
0
> 0

b
1

u(t) > 0;

b
1
> b
1
f
0
< 0

b
1

Se observ[ c[ pentru u(t) > 0, ac\iunea algoritmului de
adaptare este @n sens bun.
Dimpotriv[, dac[ se schimb[ semnul lui u(t) (u(t) < 0), acest
algoritm de adaptare parametric[ determin[ o proast[ evolu\ie a lui

b
1
(t).
y(t)
y (t)
^
0
u(t) < 0
^
y
o
y(t)
u(t) < 0
(t)
f <0
0
b1
; b1 < b1
^
^
; b1>b1
f >0
0
b1
^


Trebuie deci s[ modific[m algoritmul dat prin (7.5) pentru a
\ine cont de semnul lui u(t). Dar:
(7.6) sgnu =
u
u
i algoritmul de adaptare devine:
(7.7)

b
1
(t + 1) =

b
1
(t) +
f
u
u(t)
0
(t + 1)
Acest nou algoritm ac\ioneaz[ @n sens bun asupra lui .

b
1
(t)
#ntr-adev[r se ob\ine:
u(t) > 0;

b
1
< b
1
u
0
> 0

b
u(t) < 0;

b
1
< b
1
u
0
> 0

b
u(t) > 0;

b
1
> b
1
u
0
< 0

b
u(t) < 0;

b
1
> b
1
u
0
< 0

b
Observa\ie: Algoritmului de adaptare parametric[ (A.A.P.)
propus prin rela\ia (7.7) i se pot aduce numeroase @mbun[t[\iri i
anume:
- dac[ dorim reducerea sensibilit[\ii algoritmului @n raport cu
amplitudinea lui u i cu valoarea c`tigului f se observ[ c[:
(7.8) f
0
(t + 1) =

b
1

b
1
(t)

f u(t)
adic[, termenul de corec\ie este propro\ional cu produsul ; este f u(t)
deci evident c[ ar fi bine s[ norm[m termenul de corec\ie @mp[r\indu-l
prin , situa\ie @n care algoritmul de adaptare parametric[ devine: f u
(7.9)

b
1
(t + 1) =

b
1
(t) +
f
f u
2
u
0
(t + 1)
- @n situa\ia c`nd u(t) = 0, pentru a evita o @mp[r\ire prin 0,
algoritmul (7.9) se modific[ astfel:
(7.10)

b
1
(t + 1) =

b
1
(t) +
f
1 + f u
2
u
0
(t + 1)
#n ecua\ia (7.10) termenul are o interpretare
0
(t + 1)/1 + f u
2
interesant[. Pentru aceasta vom @nlocui @n (7.3) pe prin

b
1
(t)
i vom nota noua ie]ire a modelului cu (model de

b
1
(t + 1)

y (t + 1)
predic\ie aposteriori).
(7.11)

y (t + 1) = a
1
y(t)+

b
1
(t + 1) u(t)
#nlocuind (7.10) @n (7.11) ob\inem:

y (t + 1) = a
1
y(t) +

b
1
(t) +
f u
1 + f u
2

0
(t + 1)

u(t) =
= a
1
y(t)+

b
1
u(t) +
f u
0
(t + 1)
1 + f u
2
u(t) =
(7.12) =

y
0
(t + 1) +
f u
2
1 + f u
2

0
(t + 1)
Dac[ vom defini:
(7.13) (t + 1) = y(t + 1)

y (t + 1)
vom ob\ine:
(t + 1) = y(t + 1)

y
0
(t + 1)
f u
2
1 + f u
2

0
(t + 1) =
(7.14) =
0
(t + 1)

1
f u
2
1 + f u
2

=

0
(t + 1)
1 + f u
2
: am numit-o eroare de predic\ie apriori, c[ci ea
0
(t + 1)
depinde de parametrii estima\i la momentul t.
- se nume]te eroare de predic\ie aposteriori c[ci ea (t + 1)
depinde de paramerii estima\i la momentul t + 1, adic[ dup[ ce
algoritmul de adaptare parameric[ a ac\ionat.
Rela\ia (7.14) d[ o leg[tur[ @ntre eroarea de predic\ie apriori ]i
eroarea de predic\ie aposteriori. Se constat[ c[ (t + 1)
0
(t + 1)
(egalitatea av`nd loc pentru f sau u nul). Rela\ia (7.14) permite de
asemenea rescrierea algoritmului de adaptare parametric[ dat de
rela\ia (7.10) sub forma:
(7.15)

b
1
(t + 1) =

b
1
(t) + f u (t + 1)
fiind dat de (7.14) nu depinde dec`t de parametrii (t + 1)
estima\i la momentul t.
7.2.2 Algoritmul gradientului
Algoritmul de adaptare parametric[ al gradientului are ca
obiectiv minimizarea unui criteriu p[tratic @n termenul erorii de
predic\ie.
Vom considera acela]i exemplu ca @n paragraful 7.2.1, dar de
aceast[ dat[ cei doi parametrii ai modelului, a
1
, b
1
, sunt necunoscu\i.
Modelul discretizat al procesului se scrie:
(7.16) y(t + 1) = a
1
y(t) + b
1
u(t) =
T
(t)
unde:
este vectorul parametrilor (7.17)
T
= [a
1
, b
1
]
este vectorul m[sur[torilor (7.18)
T
(t) = [y(t), u(t)]
Modelul de predic\ie ajustabil (apriori) va fi descris @n acest
caz prin:

y
0
(t + 1) =

y (t + 1/

(t)) =

a (t) y(t)+

b
1
(t) u(t) =

T
(t) (t)
(7.19)
unde reprezint[ predic\ia apriori depinz`nd de valorile

y
0
(t + 1)
parametrilor estima\i la momentul t.
este vectorul parametrilor estima\i

T
(t) =

a
1
(t)

b
1
(t)

(7.20)
Ie]irea aposteriori a predictorului va fi dat[ prin:

y (t + 1) =

y (t + 1/

(t + 1)) =

a
1
(t + 1) y(t)+

b
1
(t + 1) u(t) =
(7.21) =

T
(t + 1) (t)
Se define]te:
- o eroare de predic\ie apriori
(7.22)
0
(t + 1) = y(t + 1)

y
0
(t + 1)
- o eroare de predictie aposteriori
(7.23) (t + 1) = y(t + 1)

y (t + 1)
Se caut[ un algoritm de adaptare parametric[ recursiv i cu
memorie, de forma urm[toare:
( 7.24)

(t + 1) =

(t) +

(t + 1) =

(t) + f(

(t), (t), (t + 1))


Termenul de corec\ie f(.) trebuie s[ depind[ @n mod unic de
informa\iile disponibile la momentul t+1 (ultima m[sur[ y(t+1),
parametrul (t) i eventual un num[r finit de informa\ii la momentele

t, t-1, t-2, ... , t-n).


Termenul de corec\ie trebuie s[ ne permit[ minimizarea la
fiecare pas a criteriului:
(7.25) min

(t)
J(t + 1) = [
0
(t + 1)]
2
Solu\ia se ob\ine printr-o tehnic[ de gradient .
#ntr-adev[r, dac[ se reprezint[ curbele J=const. (izocriteriu) @n
planul parametrilor a
1
,b
1
, se ob\in curbele @nchise concentrice @n jurul
valorii minimale a criteriului corespunz`nd punctelor a
1
,b
1
(parametrii
modelului procesului). Curbele izocriteriu se @ndep[rteaz[ din ce @n ce
de minim pe m[sur[ ce valoarea lui J crete. Aceasta tehnic[ este
ilustrat[ @n figura de mai jos:
curb[ (suprafa\[) J = ct
sens de adaptare
gradient
b
1
a
1
Fig.
Pentru a minimiza valoarea criteriului, deplasarea va fi @n
direc\ia invers[ gradientului curbei izocriteriu corespunz[toare.
Aceasta ne va conduce pe o curb[ corespunz[toare la J = const. , de
valoare mai mic[, dup[ cum este indicat @n figura de mai sus.
Algoritmul de adaptare parametric[ corespunz[tor va fi de
forma:
(7.26)

(t + 1) =

(t) F
J(t+1)


(t)
unde F= , > 0 este c`tigul de adaptare matricial (I - I
matricea unitate) i este gradientul criteriului (7.25) @n J(t + 1)/

(t)
raport cu .

(t)
Din ecua\ia (7.25) se ob\ine:
(7.27)
1
2

J(t + 1)


(t)
=

0
(t + 1)


(t)

0
(t + 1)
dar: (7.28)
0
(t + 1) = y(t + 1)

y
0
(t + 1) = y(t + 1)

T
(t) (t)
i deci: (7.29)

0
(t + 1)


(t)
= (t)
Introduc`nd (7.29) @n (7.27), algoritmul de adaptare
parametric[ (7.26) devine:
(7.30)

(t + 1) =

(t) + F (t)
0
(t + 1)
unde F este c`]tigul matricial de adaptare. Dou[ alegeri sunt posibile:
1) F = I > 0
2) F > 0 (matrice pozitiv definit[)
Interpretarea geometric[ a algoritmului de adaptare parametric[
(7.30) este dat[ @n figura de mai jos:
F (t) (t+1); F = I
F (t) (t+1); F > 0


(t+1)
(t+1)
(t)

^
^
^
Fig.
Algoritmul de adaptare parametric[ dat prin ecua\ia (7.30)
prezint[ riscul instabilit[\ii dac[ c`tigul de adaptare (respectiv ) este
mare (ceea ce se poate @n\elege cu ajutorul fig.3. Pentru a evita aceast[
problem[ de instabilitate, se utilizeaz[ aceeai aproximare a
gradientului dar se consider[ un alt criteriu:
(7.31) min

(t+1)
J(t + 1) = [(t + 1)]
2
Se ob\ine atunci:
(7.32)
1
2

J(t + 1)


(t + 1)
=
(t + 1)


(t + 1)
(t + 1)
Din ecua\iile (7.21) i (7.23) se ob\ine:
(7.33) (t + 1) = y(t + 1)

y (t + 1) = y(t + 1)

(t + 1) (t);
i respectiv:
(7.34)
(t + 1)


(t + 1)
= (t)
Introduc`nd (7.34) @n (7.32) algoritmul de adaptare (7.26)
devine:
(7.35)

(t + 1) =

(t) + F (t) (t + 1)
Pentru a putea aplica acest algoritm, trebuie s[ exprim[m @n (t + 1)
func\ie de : (
0
(t + 1) (t + 1) = f(

(t), (t),
0
(t + 1))
Ecua\ia (7.33) se poate rescrie:
(7.36) (t + 1) = y(t + 1)

T
(t) (t) [

(t + 1)

(t)]
T
(t)
Primii doi termeni din membrul drept reprezint[ tocmai
iar din rela\ia (7.35) avem:
0
(t + 1),
(7.37)

(t + 1)

(t) = F(t) (t) (t + 1)


de unde se ob\ine rela\ia dorit[ @ntre i : (t + 1)
0
(t + 1)
(7.38) (t + 1) =

0
(t + 1)
1 +
T
(t) F (t)
i algoritmul dat de (7.35) devine:
(7.39)

(t + 1) =

(t) +
F (t)
0
(t + 1)
1 +
T
(t) F (t)
care este un algoritm stabil oricare ar fi c`tigul de adaptare F
(pozitiv). #mp[r\irea prin introduce o normalizare ( 1 +
T
(t) F (t)
ca @n paragraful 7.2.1) care reduce sensibilitatea algoritmului @n raport
cu F i . (t)
S[ re\inem c[ acest algoritm pentru a
1
= constant este identic
cu cel dat de (7.10) ob\inut din considerente euristice.
2.3 Algoritmul recursiv al celor mai mici p[trate
Utiliz`nd algoritmul gradientului, se minimizeaz[ la fiecare
pas sau mai exact deplasarea se face @n direc\ia de descretere
2
(t + 1)
cea mai rapid[ a criteriului, cu un pas depinz`nd de F. Minimizarea lui
la fiecare pas, nu antreneaz[ @n mod necesar minimizarea
2
(t + 1)
expresiei
(7.40)
i=1
t

2
(i)
pe un orizont de t pa]i. #ntr-adev[r, @n vecin[tatea optimului, dac[
c`]tigul nu este suficient de mic, pot avea loc oscila\ii @n jurul
minimului.
b
a
1
1
Fig.
Pe de alt[ parte, pentru a avea o bun[ vitez[ de convergen\[ la

@nceput c`nd ne g[sim departe de optim, ar fi de dorit s[ avem un
c`]tig (factor) mare de adaptare. Algoritmul CMMPR ofer[ un astfel
de mod de varia\ie al c`]tigului de adaptare.
Se consider[ aceleai ecua\ii pentru proces, modelul de
predic\ie i erorile de predic\ie utilizate @n algoritmul gradientului,
reprezentate de ecua\iile (7.16) ... (7.23).
Va trebui s[ g[sim un algoritm recursiv de forma ecua\iei
(7.24) care minimizeaz[ criteriul celor mai mici p[trate
(7.41) min

(t)
J(t) =
i=1
t

y(i)

T
(t) (i 1)

2
Termenul corespunde la :

T
(t) (i 1)
(7.42)

T
(t) (i 1) =

a
1
(t) y(i 1)+

b
1
(t) u(i 1) =

y( i/

(t))
Aceasta este deci predic\ia ieirii la momentul i ( ) bazat[ i t
pe estima\ia parametrilor la momentul t ob\inut[ cu ajutorul a t
m[sur[tori.
#n primul moment, se ac\ioneaz[ ca s[ estimeze un parametru
la momentul pentru care el minimizeaz[ suma p[tratelor
diferen\elor @ntre proces i modelul de predic\ie pe un orizont de t
m[sur[tori.
Valoarea lui care minimizeaz[ criteriul (7.41) se ob\ine

(t)
c[ut`nd valoarea care anuleaz[ J(t)/(t) :
(7.43)
dJ(t)
d

(t)
= 2

i=1
t

y(i)

(t) (i 1)

(i 1) = 0
Observa\ie:
Trebuie ca derivata a doua @n raport cu s[ fie pozitiv[
(pentru t > dim ( ))

2
J(t)

2

(t)
= 2

i=1
t
(t 1)
T
(i 1) > 0
Din ecua\ia (7.43), \in`nd cont c[:
[

T
(t) (i 1)] (i 1) = (i 1)
T
(i 1)

(t)
se ob\ine:

i=1
t
(i 1)
T
(i 1)


(t) =
i=1
t
y(i) (i 1)
Multiplic`nd la st`nga cei doi termeni ai acestei ecua\ii cu:
rezult[:

i=1
t
(i 1)
T
(i 1)

(t) =

i=1
t
(i 1)
T
(i 1)

1

i=1
t
y(i) (i 1) = F(t)
i=1
t
y(i) (i 1)
(7.44)
unde:
(7.45) F(t)
1
=
i=1
t
(i 1)
T
(i 1)
Acest algoritm de estimare nu este recursiv.
Pentru a ob\ine un algoritm recursiv, se consider[ estima\ia :

(t + 1)
(7.46)

(t + 1) = F(t + 1)
i=1
t+1
y(i) (i 1)
(7.47) F(t + 1)
1
=
i=1
t+1
(i 1)
T
(i 1) = F(t)
1
+ (t)
T
(t)
pe care @ncerc[m s-o exprim[m @n func\ie de :

(t)
(7.48)

(t + 1) =

(t) +

(t + 1)
Din ecua\ia (7.46) avem :

i=1
t+1
y(i) (i 1) =
i=1
t
y(i) (i 1) + y(t + 1) (t) (t)
T
(t)

(t)
(7.49)
|in`nd cont de rela\iile ecua\iilor (7.44) i (7.46), rela\ia
(7.49) se rescrie:

i=1
t+1
y(i) (i 1) = F(t + 1)
1

(t + 1) = F(t)
1

(t) + (t)
T
(t)

(t)+
(7.50) +(t)[y(t + 1)

T
(t) (t)]
Dar \in`nd cont de (7.47) , (7.18) i (7.21) se ob\ine:
(7.51) F(t + 1)
1

(t + 1) = F
1
(t + 1)

(t) + (t)
0
(t + 1)
Multiplic`nd la st`nga cu F(t+1) ob\inem :
(7.52)

(t + 1) =

(t) + F(t + 1) (t)


0
(t + 1)
Algoritmul de adaptare dat de ecua\ia (7.52) are o form[
recursiv[ similar[ algoritmului gradientului dat de (7.30), cu diferen\a
c[ matricea de c`tig F(t+1) este acum variabil[ @n timp, c[ci ea
depinde de m[sur[ri (ea corecteaz[ automat direc\ia gradientului i
lungimea pasului). R[m`ne s[ d[m o formul[ recursiv[ pentru F(t+1)
plec`nd de la formula recursiv[ pentru dat[ de rela\ia F
1
(t + 1)
(7.47).
Aceasta se ob\ine utiliz`nd lema de inversiune matricial[
(dat[ @n continuare sub o form[ simplificat[):
Lem[: Fie F o matrice regulat[ de dimensiune ( ) i un n n
vector de dimensiune n, atunci:
(7.53) (F
1
+
T
)
1
= F
F
T
F
1 +
T
F
Se ob\ine atunci din (7.47) i (7.53):
(7.54) F(t + 1) = F(t)
F(t) (t)
T
(t) F(t)
1 +
T
(t) F(t) (t)
i regrup`nd diferitele rela\ii, vom prezenta o prim[ formulare a
algoritmului de adaptare parametric[ (A.A.P.), al celor mai mici
p[trate recursiv: (CMMPR)
(7.55)

(t + 1) =

(t) + F(t + 1) (t)


0
(t + 1)
(7.56) F(t + 1) = F(t)
F(t) (t)
T
(t) F(t)
1 +
T
(t) F(t) (t)
(7.57)
0
(t + 1) = y(t + 1)

T
(t) (t)
O form[ echivalent[ a acestui algoritm se ob\ine introduc`nd
expresia lui F(t+1) dat[ prin rela\ia (7.56) @n rela\ia (7.55). Se ob\ine
atunci:

(t + 1)

(t) = F(t + 1) (t)


0
(t + 1) = F(t)(t)

0
(t + 1)
1 +
T
(t) F(t) (t)
(7.58)
Dar din rela\iile (7.22) i (7.23) avem:
(t + 1) = y(t + 1)

T
(t + 1)(t) = y(t + 1)

T
(t)(t) [

(t + 1)

(t)]
T


=
0
(t + 1)
T
(t)F(t)(t)

0
(t + 1)
1 +
T
(t) F(t) (t)
=

0
(t + 1)
1 +
T
(t) F(t) (t)
(7.59)
care exprim[ rela\ia @ntre eroarea de predic\ie aposteriori i eroarea de
predic\ie apriori.
Introduc`nd (7.59) @n (7.58) se ob\ine o form[ echivalent[ a
algoritmului de adaptare parametric[ a CMMPR:
(7.60)

(t + 1) =

(t) + F(t) (t) (t + 1)


(7.61) F(t + 1)
1
= F(t)
1
+ (t)
T
(t)
(7.62) F(t + 1) = F(t)
F(t) (t)
T
(t) F(t)
1 +
T
(t) F(t) (t)
(7.63) (t + 1) =
Y(t + 1)

T
(t) (t)
1 +
T
(t) F(t) (t)
Pentru ca algoritmul CMMPR s[ fie riguros echivalent cu
algoritmul nerecursiv al CMMP, el va trebui s[ fie demarat la
momentul , c[ci @n mod normal dat prin rela\ia t
0
= dim(t) F
1
(t)
(7.45) pentru devine inversabil. #n practic[, algoritmul se t = t
0
demareaz[ la t = 0, pun`nd:
F(0) =
1

I = (CI) I; 0 < << 1


(7.64)
o valoare tipic[ fiind Se poate vedea din = 0.001; (CI = 1000).
expresia lui F
-1
(t+1) dat[ de rela\ia (7.47) c[ influen\a acestei erori
ini\iale descrete cu timpul. O analiz[ riguroas[ (plec`nd de la teoria
stabilit[\ii) arat[ totui c[ pentru to\i F(0) defini\i pozitiv (F(0) > 0)
. lim
t
(t + 1) = 0
Algoritmul C.M.M.P.R. este un algoritm cu c`tig de adaptare
descresc[tor. Aceasta se va vedea foarte clar dac[ vom considera
estimarea unui singur parametru. #n acest caz F(t) si sunt scalari (t)
i rela\ia (7.62) devine :
F(t + 1) =
F(t)
1 +
2
(t) F(t)
F(t)
Algoritmul C.M.M.P.R. asigur[ o pondere din ce @n ce mai
mic[ noilor erori de predic\ie, deci noilor m[sur[tori.
#n consecin\[, acest mod de varia\ie a c`tigului de adaptare
nu convine pentru estimarea parametrilor variabili @n timp. Va trebui
deci s[ consider[m alte forme de varia\ie a c`tigului de adaptare.
Algoritmul CMMP prezentat p`n[ acum pentru
de dimensiune 2 se generalizeaz[ pentru orice alt[ (t) si

(t)
dimensiune, rezult`nd descrierea sistemelor discrete de forma:
(7.65) y(t) =
q
d
B(q
1
)
A(q
1)
u(t)
unde :
(7.66) A(q
1
) = 1 + a
1
q
1
+ ... + a
nA
q
nA
(7.67) B(q
1
) = b
1
q
1
+ ... + b
nB
q
nB
care se scrie @nc[ sub forma:
(7.68) y(t + 1) =
i=1
nA
a
i
y(t + 1 i) +
i=1
nB
b
i
u(t d i 1) =
T
(t)
unde :
(7.69)
T
= [a
1
, ...., a
nA
, b
1
, ...., b
nB
]
(7.70) (t) = [y(t).... y(t n
A
+ 1), u(t d)....u(t d n
B
+ 1)]
Predictorul ajustabil apriori este dat @n cazul general prin:

y
0
(t + 1) =
i=1
nA

a
i
(t)y(t + 1 i) +
i=1
nB

b
i
(t)u(t d i + 1) =

T
(t)(t)
(7.71)
unde:
(7.72)

T
(t) = [

a
1
(t)....

a
nA
(t),

b
1
(t)....

b
nB
(t)]
i, pentru estimarea lui , se utilizeaz[ algoritmul dat prin rela\iile

(t)
(7.30) ... (7.63) cu dimensiunea adaptat[ (potrivit[) pentru F(t),

(t)
i . (t)
7.3.2. Alegerea c`tigului de adaptare
Formula de inversare a c`tigului de adaptare , dat[ F
1
(t + 1)
prin rela\ia (7.61) se generalizeaz[ introduc`nd dou[ secven\e de
ponderare astfel :
1
(t) si
2
(t)
(7.73) F(t + 1)
1
=
1
(t) F(t)
1
+
2
(t) (t)
T
(t)
unde :
0 <
1
(t) 1; 0
2
(t) < 2; F(0) > 0;
S[ re\inem c[ i @n rela\ia (7.73) au un efect opus:
1
(t)
2
(t)
tinde s[ creasc[ c`tigul de adaptare (inversa c`tigului
1
(t) < 1
descrete), iar tinde s[ descreasc[ c`tigul de adaptare (inversa
2
(t)
c`tigului de adaptare crete) . Pentru fiecare alegere a secven\elor
corespunde un mod de varia\ie a c`tigului de adaptare
1
(t) si
2
(t)
i o interpretare @n termenii criteriului de eroare care este minimizat
prin A.A.P. Utiliz`nd lema de inversiune matriceal[ dat[ prin rela\ia
(7.53), plec`nd de la rela\ia (7.73), ob\inem :
(7.74) F(t + 1) =
1

1
(t)

F(t)
F(t) (t)
T
(t) F(t)
1(t )
2(t )
+
T
(t) F(t) (t)

Vom da @n cele ce urmeaz[ c`teva posibilit[\i de alegere


pentru i interpretarea lor.
1
si
2
A1. C`tig descresc[tor (CMMPR)
#n acest caz:
(7.75)
1
(t) = 1;
2
(t) = 1;
i F
-1
(t+1) este dat prin rela\ia (7.61) care conduce la un c`tig de
adaptare descresc[tor . Criteriul de minimizare este cel dat de rela\ia
(7.41).
Acest mod de alegere convine atunci c`nd vrem s[
identific[m sisteme sta\ionare.
A2. Factor de uitare fix
(7.76)
1
(t) =
1
; 0 <
1
< 1;
2
(t) =
2
= 1;
Valorile uzuale pentru sunt:
1

1
= 0.95...0.99
Criteriul de minimizat va fi :
(7.77) J(t) =
i=1
t

1
(ti)
[y(i)

(t) (i 1)]
2
Efectul lui este s[ introduc[ o pondere din ce @n ce mai
1
< 1
mic[ asupra datelor vechi (i < t). Din acest motiv se numete factor
1
de uitare. Ponderea maxim[ este dat[ ultimei erori .
Acest mod de alegere se preteaz[ pentru identificarea
sistemelor lent variabile .
A3.Factor de uitare variabil.
#n acest caz:
(7.78)
2
(t) =
2
= 1;
i factorul de uitare este dat prin:
1
; ; (7.79)
1
(t) =
0
(t 1) + 1
0
0 <
0
< 1
cu valorile uzuale
1
(0) = 0.95...0.99;
0
= 0.95...0.99
Rela\ia (7.79) conduce la un factor de uitare care tinde
asimptotic c[tre 1. Criteriul de minimizare va fi:
J(t) =
i=1
t

1
(ti)
[y(i)

T
(t) (i 1)]
2
;
(7.80)
Cum tinde asimptotic c[tre 1 pentru un i mare, rezult[
1
(t)
evident o uitare a datelor ini\iale (c`tigul tinde c[tre un c`tig
descresc[tor) .
Acest mod de alegere este recomandat pentru identificarea
sistemelor sta\ionare c[ci el evit[ o descretere foarte rapid[ a
c`tigului de adaptare i aceasta conduce @n general la o accelerare a
convergen\ei (men\ine un c`tig ridicat departe de optim).
A.4 Urm[ constant[
#n acest caz, i sunt alese automat la fiecare pas
1
(t)
2
(t)
pentru a asigura o urm[ constant[ a matricii c`tigului de adaptare
(suma constant[ a termenilor diagonalei).
(7.81) tr F(t + 1) = tr F(t) = tr F(0) = n CI
unde n este num[rul de parametrii i Cl este c`tigul ini\ial (valori
tipice Cl = 0, 1,..., 4), matricea F(0) av`nd
(7.82) F(0) =

CI 0
0 CI

Criteriul de minimizare este de forma:


(7.83) J(t) =
i=1
t
f(t, i)[y(i)

T
(t) (i 1)]
2
;
unde f(t, i) reprezint[ profilul (modul de alegere) al uit[rii. Prin
aceast[ tehnic[ deplasarea la fiecare pas are loc @n direc\ia optimal[ a
CMMPR, dar se men\ine c`tigul aproximativ constant (refacerea
c`tigului CMMPR). Valorile lui i se determin[ plec`nd
1
(t)
2
(t)
de la ecua\iile:
(7.84) tr F(t + 1) =
1

1
(t)
tr

F(t)
F(t) (t)
T
(t) F(t)
(t) +
T
(t) F(t) (t)

= tr F(t)
fix`nd raportul (rela\ia (7.84) este ob\inut[ din (t) =
1
(t)/
2
(t)
rela\ia (7.74)).
Acest mod de alegere se preteaz[ pentru identificarea
sistemelor cu parametrii variabili @n timp.
A.5 C`tig descresc[tor + urm[ constant[
#n acest caz se comut[ A
1

pe A
4
c`nd:
(7.85) tr F(t) n CI; CI = 0, 1, ...., 4
unde G este fixat dinainte.
Acest mod de alegere se preteaz[ pentru identificarea
sistemelor variabile @n timp @n absen\a informa\iei ini\iale despre
parametri.
A.6 Factor de uitare variabil +urm[ constant[
#n acest caz se comut[ A
3
pe A
4
c`nd:
(7.86) tr F(t) n CI
iar utilizarea este aceeai ca pentru A5.
A.7 C`tig constant (algoritmul gradientului @mbun[t[\it)
#n acest caz:
1
(t) =
2
(t) = 1;
2
(t) =
2
= 0
(7.87)
i deci din rela\ia (7.73) rezult[:
F(t+1) = F(t) = F(0) (7.88)
Se ob\ine atunci algoritmul de adaptare al gradientului
@mbun[t[\it dat prin rela\ia (7.35) sau prin rela\ia (7.40).
Putem s[ utiliz[m acest algoritm pentru identificarea
sistemelor sta\ionare sau variabile @n timp, dar cu parametrii pu\ini
, i @n prezen\a a unui zgomot de nivel redus. ( 3)
Acest tip de c`tig de adaptare conduce la performan\e
inferioare celor furnizate de modul de alegere A
1
, A
2
, A
3
i A
4
dar
punerea sa @n aplica\ie este mai simpl[.
Alegerea c`tigului ini\ial F(0)
C`tigul de adaptare ini\ial F(0) are forma dat[ de real\ia
(7.64) respectiv (7.81):
F(0) =
1

I = CI 0 < << 1
#n absen\a informa\iei ini\iale despre parametrii de estimat
(valoarea tipic[ a estima\iilor ini\iale = 0), se alege un c`tig ini\ial
(CI) mare din motive care au fost explicate @n paragraful 7.2.3 (rela\ia
6.4).
O valoare tipic[ este CI = 1000.
Dimpotriv[, dac[ se dispune de o estimare ini\ial[ a
parametrilor (rezulta\i de exemplu dintr-o identificare anterioar[), se
alege un c`tig ini\ial mic. In general, @n acest caz, CI . 1
Deoarece, pe m[sur[ ce se determin[ estima\ii corecte a
parametrilor modelului, c`tigul de adaptare descrete (o m[sur[
semnificativ[ este urma sa), se poate interpreta c`tigul de adaptare ca
o m[sur[ a preciziei estim[rii (sau a predic\iei). Aceasta explic[
alegerile lui F(0) propuse foarte mari. Men\ion[m c[ sub anumite
ipoteze, F(t) este efectiv o m[sur[ a calit[\ii estim[rii (covarian\a
vectorului de eroare parametric[).
Pe de alt[ parte, aceast[ proprietate poate s[ dea informa\ii
despre evolu\ia unei proceduri de estimare. Dac[ urma lui F(t) nu
descrete @n mod semnificativ, estimarea parametrilor este @n general
proast[. Acest fenomen apare de exempu c`nd nivelul i tipul
comenzii utilizate nu sunt potrivite. Importan\a naturii intr[rii
procesului pentru identificare va fi discutat[ @n paragraful urm[tor.
7.3 Alegerea intr[rii pentru identificare
7.3.1 Problema alegerii semnalului de intrare
Convergen\a c[tre zero a erorii de predic\ie nu implic[ @n (t)
toate cazurile convergen\a parametrilor estima\i ai modelului c[tre
parametrii adev[ra\i ai modelului.
Vom ilustra aceasta printr-un exemplu. Fie modelul discret al
procesului descris prin:
y(t + 1) = a
1
y(t) + b
1
u(t)
(7.89)
i vom considera un model estimat descris prin:

y (t + 1) =

a
1
y(t)+

b
1
u(t)
(7.90)
unde este ieirea prezis[ prin modelul estimat.

y (t + 1)
Presupunem acum c[ u(t) = constant, i c[ parametrii a
1
, b
1
,
verific[ rela\ia urm[toare:

a
1
,

b
1

b1
1+a1
=

b
1
1+
^
a1
7.91)
sau cu alte cuvinte, c`tigurile statice ale procesului i modelului
estimat sunt egale f[r[ ca pentru aceasta i .

b
1
= b
1

a
1
= a
1
Sub efectul intr[rii constante u(t) = u, ieirea procesului va fi
dat[ de:
y(t + 1) = y(t) =
b1
1+a1
u
(7.92)
i ieirea modelului estimat de predic\ie va fi dat[ prin:

y (t + 1) =

y (t) =

b
1
1+

a1
u
(7.93)
Dar, \in`nd cont de rela\ia (7.91) rezult[:
, pentru u(t) = ct (t + 1) = y(t + 1)

y (t + 1) = 0

a
1
a
1
,

b
1
b
1
(7.94)
Concluzion[m deci pentru acest exemplu c[ aplicarea unei
intr[ri constante nu permite s[ distingem cele dou[ modele, c[ci ele au
acelai c`tig static.
Dac[ se reprezint[ caracteristica frecven\ial[ a celor dou[
sisteme, vom ob\ine curbele prezentate @n figura de mai jos:
Fig.
model
proces

( )
Din aceast[ figur[ se vede c[ pentru a pune @n eviden\[
diferen\a @ntre cele dou[ modele (cu alte cuvinte @ntre parametrii),
trebuie s[ aplic[m un semnal i nu un semnal u(t) = sint ( 0)
u(t) = constant.
Vom analiza aceste fenomene mai @n detaliu. C`nd eroarea de
predic\ie este nul[, din rela\iile (7.89) i (7.90) se ob\ine:
(t + 1) = y(t + 1)

y (t + 1) = (a
1

a
1
) y(t) + (b
1

b
1
) u(t) = 0
(7.95)
Plec`nd de la rela\ia (7.89) noi vom putea s[ exprim[m y(t) @n
func\ie de u(t):
y(t) =
b1q
1
1+a1q
1
u(t)
(7.96)
Introduc`nd expresia lui y(t) dat[ prin rela\ia (7.96) @n rela\ia
(7.95), se ob\ine rela\ia echivalent[:

a
1
a
1
) b
1
q
1
+ (b
1

b
1
)(1 + a
1
q
1
)

u(t) =
=

(b
1

b
1
) + q
1
(b
1

a
1
a
1

b
1
)

u(t) = 0
(7.97)
Pe noi ne intereseaz[ s[ g[sim structura lui u(t) pentru care
verificarea rela\iei (7.97) conduce la erori parametrice nule.
Vom nota:
b
1
=

b
1
=
0
; b
1

a
1
a
1

b
1
=
1
(7.98)
Rela\ia (7.97) se scrie atunci:
(
0
+
1
q
1
) u(t) = 0
(7.99)
care este o ecua\ie recurent[ av`nd o solu\ie de tip exponen\ial
discretizat.
Fie:
u(t) = z
t
= e
sTet
(7.100)
unde este perioada de eantionare. T
e
Rela\ia (7.99) se scrie atunci:
(
0
+ z
1

1
) z
t
= (z
0
+
1
) z
t1
= 0
(7.101)
i ea va fi verificat[ pentru z, solu\ia ecua\iei caracteristice:
z
0
+
1
= 0
(7.102)
Se ob\ine:
z =
1
0
= e
Te
( = real)
(7.103)
i solu\ia neperiodic[:
u(t) = e
Tet
(7.104)
conduce la verificarea rela\iei (7.99) i respectiv rela\iei (7.95) f[r[ ca
i . #ntr-adev[r, semnalul u(t)=ct, considerat mai

a
1
= a
1

b
1
= b
1
@nainte, corespunde lui , adic[: = 0
- dar,
1
=
0
-
1
=
0
b
1

b
1
= a
1

b
1
b
1

a
1

b1
1+a1
=

b1
1+

a1
Cu alte cuvinte, dac[ u(t) = constant, noi nu identific[m dec`t
c`tigul static.
Trebuie deci s[ g[sim u(t), astfel ca i .

a
1
= a
1

b
1
= b
1
Aceasta se va ob\ine dac[ u(t) nu este o solu\ie posibil[ a ecua\iei
(7.99).
Fie:
u(t) = e
jTet
sau e
jTet
(7.105)
Pentru rela\ia (7.99) devine: u(t) = e
jTet
[e
jTe

0
+
1] e
jTe(t1)
= 0
(7.106)
Cum i sunt reali, nu poate fi o r[d[cin[ a
0

1
e
jTe
ecua\iei caracteristice i rezult[ c[ va fi ob\inut numai dac[: (t) = 0

0
=
1
= 0

b
1
= b
1,

a
1
= a
1
(7.107)
Acesta este deci tipul de intrare care a fost propus
mai @nainte ( ) examin`nd caracteristicile sint =
e
jt
e
jt
2j
frecven\iale ale celor dou[ modele. Trebuie deci, o sinusoid[ de
frecven\[ nenul[ pentru identificarea celor doi parametrii.
Aceast[ abordare pentru determinarea intr[rii u(t) ce permite o
bun[ identificare a parametrilor modelului se aplic[ de asemenea
pentru sisteme de forma general[:
y(t) =
i=1
nA
a
i
y (t i) +
i=1
nB
b
i
u (t d i)
(7.108)
pentru care num[rul total de parametrii de identificat este:
n
parametrii
= n
A
+ n
B
#n acest caz se poate alege u(t) ca o sum[ de p - sinusoide de
frecven\e diferite:
u(t) =
i=1
p
sin
i
T
e
t
(7.109)
iar valoarea lui p, pentru o bun[ identificare a tuturor parametrilor,
este dat[ de:
n
A
+ n
B
= par p
nA+nB
2
(7.110)
n
A
+ n
B
= impar p
nA+nB+1
2
Observa\ie: Condi\ia (7.110) garanteaz[ de asemenea c[
este o matrice inversabil[ i pozitiv definit[
i=1
t
(i 1)
T
(i 1)
pentru . t n
A
+ n
B
= dim
Cu alte cuvinte pentru o identificare bun[ trebuie s[ aplic[m o
intrare bogat[ @n frecven\[.
Solu\ia standard @n practic[ este furnizat[ prin utilizarea
SPAB.
7.3.2 Efectul perturba\iilor aleatoare asupra identific[rii
Ieirea m[surat[ a proceselor este @n general afectat[ de
zgomot. Aceasta se datoreaz[ fie efectului perturba\iilor aleatoare
ac\ion`nd @n diferite locuri ale procesului, fie zgomotelor de m[sur[.
Aceste perturba\ii cu caracter aleator sunt modelate adesea prin
modele ARMA, procesul cel mai perturbat fiind modelat printr-un
model ARMAX.
Aceste perturba\ii introduc erori @n identificarea (estimarea)
parametrilor modelelor proceselor c`nd se utilizeaz[ algoritmul
CMMP recursiv (sau nerecursiv). Acest tip de eroare se numete
devierea parametrilor.
#nanite de a prezenta algoritmii care permit eliminarea devierii
parametrilor estima\i, vom analiza mai @nt`i efectul perturba\iilor
aleatoare asupra algoritmului CMMP.
Fie, @n acest caz, un model al procesului i perturba\iei de tip
ARMAX:
y(t + 1) = a
1
y(t) + b
1
u(t) + c
1
e(t) + e(t + 1)
(7.111)
unde termenul modeleaz[ perturba\ia. c
1
e(t) + e(t + 1)
Predictorul ajustabil aposteriori pentru CMMPR se scrie @n
acest caz:

y (t + 1) =

a
1
(t + 1) y(t)+

b
1
(t + 1) u(t)
(7.112)
(perturba\ia nu este modelat[ de modelul ajustabil al procesului ).
Eroarea de predic\ie aposteriori este dat[ prin:
- (t + 1) = y(t + 1)

y (t + 1) =
y(t+1)

(t)(t)
1+
T
(t)F(t)(t)
(7.113)
unde:
T
(t) = [y(t), u(t)];

T
(t) =

a
1
(t),

b
1
(t)

(7.114)
i algoritmul de adaptare parametric[ este:

T
(t + 1) =

(t) + F(t) (t) (t + 1)


(7.115)
#n absen\a perturba\iilor, pentru , eroarea de

(t) =
predic\ie aposteriori i algoritmul (7.115) las[ neschimbat[ (t + 1) = 0
valoarea parametrilor estima\i.
Dar, @n prezen\a perturba\iilor, chiar dac[ , avem:

=
(t + 1)

=
= c
1
e(t) + e(t + 1)
(7.116)
Pe de alt[ parte, dat prin rela\ia (7.114), con\ine pe y(t), (t)
care dup[ rela\ia (7.111) depinde de e(t) i e(t-1). Avem deci:
(t) = f[e(t), e(t 1), ...]
(7.117)
Rezult[ o corela\ie nenul[ @ntre i : (t) (t + 1)
E{(t) (t + 1)}

=
0
(7.118)
Aceasta implic[ faptul c[ (chiar dac[ se demareaz[ algoritmul
CMMPR cu ), termenul de corec\ie din rela\ia (7.115) va (0) =
introduce o eroare (deviere) propor\ional[ cu . E{(t) (t + 1)}
#ntr-adev[r, din rela\ia (7.115) se ob\ine:

(t + N) =

(t) +
i=0
N1
F(t + i) (t + i) (t + 1 + i)
(7.119)
dar, pentru N suficient de mare, avem @n acest caz:

1
N

i=0
N1
(t + i) (t + i + 1) = E{(t) (t + 1)} 0
(7.120)
ceea ce implic[ faptul c[ termenul de corec\ie din rel. (7.115) va
introduce o deviere a parametrilor.
Pentru a elimina aceast[ deviere, va trebui deci s[ alegem al\i
vectori de observare (m[sur[tori), alte tipuri de predictori i alte erori
de adaptare astfel @nc`t s[ avem:
pentru E{(t) (t + 1)} = 0

(t) (t)
(7.121)
Dou[ criterii au fost re\inute pentru a genera algoritmi care s[
satisfac[ condi\ia (7.121) i s[ conduc[ asimptotic la estima\ia
parametrilor f[r[ deviere:
1. (sau v(t+1) = eroarea de adaptare) este un zgomot (t + 1)
alb pentru .

(t) (t)
2. i (sau v(t+1)) sunt necorelate (sau (t) (t + 1)
independente) pentru .

(t) (t)
7.4 Structura metodelor de identificare recursive
Toate metodele de identificare recursive corespund schemei
de principiu dat[ @n figura urm[toare:
PROCES
PREDICTOR
AJUSTABIL
q
-1
AAP
Perturba\ie
y(t)
(t-1) y(t)
(t)
u(t)
(t)
+
-

Fig.
Ele utilizeaz[ toate aceeai structur[ pentru algoritmul de
adaptare parametric[ (AAP) ]i diferite alegeri pentru factorul de
adaptare, dar se diferen\iaz[ prin:
- structura predictorului;
- natura componentelor vectorului de observare ( );
- dimensiunea vectorului parametrilor ajustabili i a

(t)
vectorului m[sur[torilor ; (t)
- maniera de generare a erorilor de predic\ie i respectiv a
erorilor de adaptare.
Propriet[\ile de convergen\[, @n prezen\a perturba\iilor
aleatoare, vor depinde de diferitele alegeri indicate mai sus ]i se pot
distinge 3 tipuri de metode:
- metode zise de ecua\ia erorii ( CMMPR i diferitele
extensii: CMMP extinse, CMMP generalizate, verosimilit[\ii maxime
recursive). Fiecare metod[ tinde s[ ob\in[ o eroare de predic\ie alb[
(zgomot alb) pentru o clas[ de modele de perturba\ie, ce modeleaz[
perturba\ia;
- metodele zise variabil[ instrumental[ (cu observa\ii
@nt`rziate sau cu modele auxiliare). Fiecare metod[ tinde s[ ob\in[
prin modificarea vectorului m[sur[torilor al E{(t) (t + 1)} = 0 (t)
algoritmului CMMP;
- metode zise eroare de ieire (cu compensator fix, cu
compensator ajustabil, cu model de predic\ie extins). Aceste metode
tind s[ ob\in[ asimptotic fie , fie albirea erorii de E{(t) (t + 1)} = 0
adaptare, prin modificarea predictorului i a metodei de ob\inere a
erorii de adaptare.
Acestea reprezint[ un total de nou[ metode de identificare
fundamentale, cu numeroase variante @n func\ie de c`tigul de
adaptare ales.
Se pot trece @n revist[ patru structuri de modele de
reprezentare a ansamblului proces + perturba\ie, care sunt
reprezentate @n figura de mai jos:
S1: A(q
1
) y(t) = q
d
B(q
1
) u(t) + e(t)
1
A
q
- d
B
A
+
+
e(t)
y(t) u(t)
S2:
A(q
1
) y(t) = q
d
B(q
1
) u(t) + A(q
1
) w(t)
q
- d
B
A
+
+
y(t) u(t)
w(t)
S3: A(q
1
) y(t) = q
d
B(q
1
) u(t) + C(q
1
) e(t)
q
- d
B
A
+
+
e(t)
y(t) u(t)
C
A
S4:
A(q
1
) y(t) = q
d
B(q
1
) u(t) +
1
C(q
1
)
e(t)
1
q
- d
B
A
+
+
e(t)
y(t) u(t)
CA
cu: A(q
1
) = 1 + a
1
q
1
+ ...
B(q
1
) = b
1
q
1
+ ...
C(q
1
) = 1 + c
1
q
1
+ ...
Aceste patru structuri sunt:
S1: A(q
1
) y(t) = q
d
B(q
1
) u(t) + e(t)
Metodele care pot fi utilizate pentru aceast[ structur[ sunt:
- CMMPR
- variabil[ instrumental[ cu model auxiliar (VIMA);
- variabil[ instrumental[ cu observa\ii @nt`rziate (VIOI);
- eroare de ieire cu compensator fix (EICF);
- eroare de ieire cu compensator ajustabil (EICA);
S2
A(q
1
) y(t) = q
d
B(q
1
) u(t) + A(q
1
) w(t)
Aceast[ structur[ corespunde unui model de forma :
y(t) =
q
d
B(q
1
)
A(q
1
)
u(t) + w(t)
unde w(t) este o perturba\ie nemodelat[, asupra c[reia se face unica
ipotez[ c[ ea are valoare medie nul[, putere finit[ i este independent[
de intrare.
Metodele care pot fi utilizate pentru aceast[ structur[ sunt:
- CMMPR (dac[ ); A(q
1
) w(t) = e(t)
- VIMA;
- VIOI (dac[ ); A(q
1
) w(t) = C(q
1
) e(t)
- EICF;
- EICA;
S3:
A(q
1
) y(t) = q
d
B(q
1
) u(t) + C(q
1
) e(t)
Metodele care pot fi utilizate pentru aceast[ structur[ sunt:
- CMMPE;
- VMR (verosimilitate maxim[ recursiv);
- eroare de ieire cu model de predic\ie extins (EIMPE);
S4:
A(q
1
) y(t) = q
d
B(q
1
) u(t) +
1
C(q
1
)
e(t)
Metoda care poate fi utilizat[ pentru aceast[ structur[ este:
- CMMPG - (celor mai mici p[trate generalizate).
Observa\ie: nu exist[ o structur[ unitar[ proces + perturba\ie
pentru descrierea tuturor situa\iilor @nt`lnite @n practic[ .
S[ re\inem c[ nici-o metod[ de identificare nu poate fi
utilizat[ pentru a ob\ine @ntotdeauna estimarea parametric[ nedeviat[.
#n sf`rit cum am ar[tat mai @nainte, toate aceste metode de
identificare se @mpart @n dou[ categorii, dup[ criteriul utilizat pentru
dezvoltarea lor (parametrii estima\i nedevia\i.)
I. Metode de identificare bazate pe albirea erorii de predic\ie (
);
II.Metode de identificare bazate pe decorelarea vectorului de
observa\ie ( ) i erorii de predic\ie ( ). E{(t) (t + 1)} 0

S-ar putea să vă placă și