Documente Academic
Documente Profesional
Documente Cultură
Zar 1
Zar 2
1 2 3 4 5 6
Ex. 1.1 Ex. 1.2 Ex. 1.3 Ex. 1.4 Ex. 1.5 Ex. 1.6
1 15 p 8 p 15 p 15 p 20 p 10 p
Qbh/!3! Qbh/!3! Qbh/!3 Qbh/!4 Qbh/!4 Qbh/!4!
Ex. 2.1 Ex. 2.2 Ex. 2.3 Ex. 2.4 Ex. 2.5 Ex. 2.6
2 30 p 15 p 10 p 5 p 20 p 10 p
Qbh/!5! Qbh/!5! Qbh/!5 Qbh/!5 Qbh/!5 Qbh/!5!
Ex. 3.1 Ex. 3.2 Ex. 3.3 Ex. 3.4 Ex. 3.5 Ex. 3.6
3 30 p 8 p 10 p 15 p 20 p 15 p
Qbh/!6! Qbh/!6! Qbh/!6 Qbh/!6 Qbh/!6 Qbh/!6!
Ex. 4.1 Ex. 4.2 Ex. 4.3 Ex. 4.4 Ex. 4.5 Ex. 4.6
4 5 p 20 p 15 p 20 p 20 p 30 p
Qbh/!7! Qbh/!7! Qbh/!7 Qbh/!7 Qbh/!8 Qbh/!8
Ex. 5.1 Ex. 5.2 Ex. 5.3 Ex. 5.4 Ex. 5.5 Ex. 5.6
5 25 p 25 p 15 p 12 p 5 p 15 p
Qbh/!:! Qbh/!:! Qbh/!21 Qbh/!21 Qbh/!21 Qbh/!22!
Ex. 6.1 Ex. 6.2 Ex. 6.3 Ex. 6.4 Ex. 6.5 Ex. 6.6
6 15 p 10 p 10 p 15 p 25 p 20 p
Qbh/!23! Qbh/!23 Qbh/!23 Qbh/!24 Qbh/!24 Qbh/!24!
TAIPS-1
15 p
Ex#1.2 Exprimaţi forma de regresie liniară a unui model AR[na] de tip MIMO cu 2 ieşiri
şi apoi a unui model ARX[na,nb] de tip MIMO cu 2 intrări şi 2 ieşiri. Pentru
fiecare din cele 2 modele, indicaţi numărul de parametri necunoscuţi cu şi fără
cei aferenţi perturbaţiilor. Sunt aceste forme de regresie liniară unice?
Justificaţi răspunsul.
15 p
Ex#1.3 Folosind raţionamentul din contextul modelului AR, construiţi predictorii (sub-)
optimali asociaţi modelului ARMA şi descrieţi algoritmul de predicţie aferent în
variantă nerecursivă (indicînd şi dispersiile erorilor de predicţie).
Indicaţii
• TIR trebuie aplicată în acest context după cum urmează:
C ( q −1 ) = A ( q −1 ) B p ( q −1 ) + q − p D p ( q −1 ) ,
TAIPS-2
( )
de polinoamele D̂ p q −1 , avînd la intrare semnalul x (mai precis, ultimele m
valori ale acestuia pe orizontul de măsură).
15 p
Ĉ ( q −1 ) x[ n] = y[ n] , ∀ n ∈1, N ,
cu iniţializarea x[ n] = 0 , pentru n ≤ 0 .
20 p
Ĉ ( q −1 ) x[ n] = y[ n] , ∀ n ∈1, N ,
cu iniţializarea x[ n] = 0 , pentru n ≤ 0 . În relaţia recurentă, s-a considerat că
polinoamele estimate ale modelului au gradul egal cu m = max{na, nc} ,
completînd eventual cu termeni nuli polinomul de grad mai mic. Oferiţi
explicaţiile necesare implementării eficiente a acestei relaţii recurente (în
special legate de evaluarea primului termen al sumei din dreapta egalităţii).
Comparaţi efortul de calcul implicat de relaţia recursivă cu efortul de calcul
necesar producerii valorii predictate folosind relaţia nerecursivă.
10 p
10 p
TAIPS-4
20 p
15 p
15 p
Ex#3.6 Arătaţi cum se poate defini particula elementară din cadrul Algoritmului PSO în
cazul următorilor predictori:
3 p a. PARMA unidimensional;
3 p b. PARMA multi-dimensional;
4 p c. PARMAX cu control exogen;
5 p d. PARMAX cu control endogen, constituit de cîte un model ARMA pe fecare
canal de perturbaţie.
TAIPS-5
5 p
15 p
20 p
∑ A ( q ) y [ n] = e [ n] ,
ny
i, j
−1
j i
∀ n ∈ N∗ , ∀ i ∈1, ny ,
j =1
unde:
Ai ,i ( q −1 ) = 1 + ai ,i ,1 q −1 + " + ai ,i ,nai ,i q
def
− nai ,i
, ∀ i ∈1, ny ;
Ai , j ( q −1 ) = ai , j ,1 q −1 + " + ai , j ,nai , j q
def
− nai , j
, ∀ i, j ∈1, ny , i ≠ j .
TAIPS-6
3 p b. Comparaţi efortul de calcul al algoritmului de la punctul a. cu cel aferent
MCMMP-M.
5 p c. Exprimaţi ecuaţiile de predicţie aferente modelului astfel identificat.
5 p d. Este posibilă estimarea dispersiilor erorii de predicţie? Dacă nu, arătaţi de
ce. Dacă da, propuneţi o tehnică de estimare a acestor erori.
Indicaţie
• Datorită faptului că polinoamele auto-regresive nediagonale nu au termen
liber, identificarea se poate realiza pentru fiecare ieşire în parte, separat de
celelalte ieşiri.
20 p
30 p
∑ A ( q ) y [ n] = C ( q ) e [ n] ,
ny
i, j
−1
j i
−1
i
∀ n ∈ N∗ , ∀ i ∈1, ny ,
j =1
unde:
Ai ,i ( q −1 ) = 1 + ai ,i ,1 q −1 + " + ai ,i ,nai ,i q
def
− nai ,i
, ∀ i ∈1, ny ;
Ai , j ( q −1 ) = ai , j ,1 q −1 + " + ai , j ,nai , j q
def
− nai , j
, ∀ i, j ∈1, ny , i ≠ j ;
TAIPS-7
Ci ( q −1 ) = 1 + ci ,1 q −1 + " + ci ,nci q − nci , ∀ i ∈1, ny .
def
TAIPS-8
25 p
Ex#5.1 Aşa cum se poate observa cu uşurinţă, algoritmul adaptiv al MCMMP bazat pe
descompunerea QR are un dezavantaj major: odată cu trecerea timpului,
matricea ortogonală Q capătă dimensiuni tot mai mari. Folosind fereastra
exponenţială:
def
wk [n] = ρk − n , ∀ n ∈1, k ,
unde k ∈ N∗ este momentul curent de achiziţie de date, iar ρ ∈ (0,1) este
factorul de uitare, propuneţi o variantă a acestui algoritm, în care să se limiteze
dimensiunea matricii ortogonale. (Fereastra exponenţială poate fi aplicată
setului de date măsurate.) Care ar fi preţul plătit pentru această operaţie?
Indicaţie
• În matricea Φ a regresorilor, primele linii au elemente care devin din ce în ce
mai apropiate de zero, din cauza ferestrei exponenţiale. În consecinţă,
matricea Q tinde să se exprime ca o matrice bloc diagonală, în care blocul
principal aproximează matricea unitară. Dimensiunea acestui bloc este egală
cu cea a liniilor aproximativ nule din matricea Φ . În consecinţă, este posibilă o
trunchiere a matricilor Φ şi Q . Noul algoritm trebuie să exploateze această
proprietate, fără a degrada prea mult vectorul parametrilor estimaţi.
Reamintim că matricea superior triunghiulară R are un număr constant de
coloane, egal cu numărul parametrilor ce trebuie estimaţi. Aceasta limitează
inferior dimensiunea celuilalt bloc diagonal al matricii Q .
25 p
TAIPS-9
15 p
Indicaţie
• Se recomandă abordarea exerciţiului plecînd de la diferenţa dintre starea
curent estimată şi cea curent predictată, xˆ ⎡⎣ k Dk ⎤⎦ − xˆ ⎡⎣ k Dk −1 ⎤⎦ . Pe de o
parte, se poate estima matricea de auto-covarianţă a acestei diferenţe, ţinînd
cont de corelaţia dintre cele două stări. Pe de altă parte, în diferenţa de mai
sus, se poate adăuga şi scădea vectorul stărilor necunoscute, x[ k ] , pentru a
ajunge la o expresie în care intervin cele două matrici.
5 p
TAIPS-10
15 p
(
xˆ [k ] = I − Γˆ k C
ˆ
k )( Aˆ ) ( )
xˆ [k − 1] + Bˆ kx −1u[k − 1] + Γˆ k y[k ] − Bˆ ky u[k ] , ∀ k ∈ N∗ ,
k −1
TAIPS-11
15 p
Ex#6.1 Arătaţi că Algoritmul aferent MCMMP-R pentru sisteme SISO exprimate prin
modele de regresie liniară este aproximativ un caz particular al Predictorului
Kalman-Bucy (PKB). Ce diferenţă este între ecuaţiile PKB şi cele ale
MCMMP-R în acest caz? Cum poate fi înlăturată această diferenţă?
Indicaţie
• Se pleacă de la un sistem cu reprezentare pe stare de forma:
⎧x[k + 1] = A k x[k ] + B k u[k ] + w[k ]
⎨ , ∀k ∈N ,
⎩ y[ k ] = C k x[ k ] + v[ k ]
cu notaţii cunoscute. Mai departe, parametrii necunoscuţi variabili ai modelului
de regresie liniară sunt asociaţi chiar cu stările sistemului de mai sus, în timp
ce ecuaţia de regresie liniară corespunde ecuaţiei ieşirii din sistemul de mai
sus. O a treia ecuaţie se referă la zgomotul alb al modelului de regresie, avînd
dispersia de asemenea necunoscută. Scriind ecuaţiile de bază ale PKB, se
regăsesc ecuaţiile MCMMP-R, cu o mică diferenţă, cauzată de intervenţia
dispersiei zgomotului alb. Pentru a înlătura diferenţa, e suficient să se plece
de la o iniţializare inspirată a matricii de auto-covarianţă a erorii de estimare
(care intervine în expresia cîştigului).
10 p
10 p
Ex#6.3 Scrieţi ecuaţiile de implementare ale MMEP aplicate unui model SISO
Box-Jenkins (BJ) şi descrieţi primele 3 iteraţii aferente.
TAIPS-12
15 p
25 p
20 p
TAIPS-13