Documente Academic
Documente Profesional
Documente Cultură
215
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
y y *T y A*T x A x x
2 *T 2
*T *T
AA*T x x *T x x (6.21)
216
Transformări liniare
1
Valorile proprii mai sunt cunoscute în literatură şi sub denumirea de autovalorile matricii
corespondente.
Valorile proprii sunt întâlnite şi utilizate în toate domeniile ingineriei, economiei, ştiinţei etc.
Astfel, de exemplu, frecvenţa naturală de oscilaţie a unui pod este egală cu valoarea proprie
minimă a sistemului de ecuaţii ce modelează podul. Prăbuşirea podului Tacoma Narrows în anul
1940 a fost generată de oscilaţiile produse de către vânt şi aceasta deoarece frecvenţa oscilaţiilor a
fost foarte apropiată de frecvenţa naturală de oscilaţie a podului.
În domeniul electronicii polii oricărei funcţii de transfer ce modelează un sistem (filtru
amplificator, oscilator etc.) sunt valorile proprii ale matricei de tranziţie a sistemului respectiv –
vezi Anexa: Polii funcţiei de transfer şi valorile proprii. Un alt exemplu este şi
următorul.
În încercarea de a proiecta o coloană pornindu-se de la o cantitate fixă de material ce poate fi
utilizată în construcţia ei, dar care să suporte o greutate maximă (a unui acoperiş, plafon) inginerii
au demonstrat, folosindu-se de valorile proprii, că această coloană ar trebui să aibă o formă
similară cu cea din figura alăturată; astfel, coloana trebuie să aibă diametrul maxim în mijloc şi la
capete iar la distanţe egale cu 25% din lungimea ei, de ambele capete, diametrul trebuie să fie
¼
½
minim.
217
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
Observaţia 6.4: În mod similar, pentru o matrice de corelaţie, Rx, care este şi
ea, la rândul ei, hermitian-simetrică, putem găsi d vectori ortonormali
şi d valori proprii asociate cu aceşti vectori.
Valorile proprii ale matricei de covarianţă (respectiv, corelaţie) sunt
întotdeauna numere reale. Parte din aceste valori proprii pot să fie zero
sau/şi să existe grupuri de două sau mai multe valori proprii care să fie egale
între ele.
218
Transformări liniare
e1*T
e2*T (6.27)
yE x
*T
x
e *T
d
2
ckk = E{ | xk – mk |2 } conform relaţiei (5.201)
219
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
220
Transformări liniare
221
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
222
Transformări liniare
2 2 (6.43)
Cx
2 5
223
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
1
2 2
e 21 e 22 1 e21
5 (6.49)
2
2e 21 e 22 1 e 22
5
224
Transformări liniare
225
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
226
Transformări liniare
a2
4
1C
3
2C
b1 b2
2 mx sau m y
1 e2
e1 0.707
-1 -0.707 0.707 a1
1 2 3 4
227
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
228
Transformări liniare
3 m2y
b1 (a)
m2x mx sau m y
e2
1
e1
-1 m1x a1
1 3 4
m1y
b1
mx
(b) 2
b2
-1 m2y
1 2 3 4
m1y
my
229
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
1 1
matrice de covarianţă şi, respectiv, medie: Cx 2 4 , 3
1 1 mx
4 2 2
desenaţi un contur al funcţiei densitate de probabilitate în planul a1, a2.
Rezolvare: Pentru determinarea unui contur al funcţiei densitate de
probabilitate sau a unui elipsoid de concentrare al funcţiei densitate de
probabilitate – denumirile sunt similare – se vor urmări etapele:
1. Se determină valorile poprii ale matricii Cx: 1 1 şi 2 3 .
4 4
2. Se determină vectorii proprii asociaţi fiecărei valori proprii:
a. Pentru valoarea proprie 1 1 avem unul din următorii
4
1
1 2
vectori proprii: e1 1 2
sau e1 1 .
2 2
4
Pentru a putea desena şi cantitativ elipsa de concentrare avem nevoie să cunoaştem
valoarea particulară a constantei constant din relaţia (6.41).
230
Transformări liniare
232
Transformări liniare
dacă l k
el*T Rx ek k (6.57)
0 dacă l k
233
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
N
Rx j (6.66)
j 1
N
tr Rx tr j (6.67)
j 1
234
Transformări liniare
Metodele aparţinând clasei din care face parte şi metoda SVD pot să
lucreze direct cu matricea setului de date – de exemplu, cu X0 –, în loc de
produse de forma X0*T X0 şi, din acest motiv, sunt denumite metode de tip
“radical”.
Observaţia 6.10: În cele ce urmează vom discuta metoda SVD în contextul
determinării vectorilor proprii şi ai valorilor proprii pentru matricea de
covarianţă a unui vector aleator de trăsături, x, d-dimensional; acest
exemplu particular nu reduce cu nimic din caracterul de generalitate al
prezentării.
Teorema de descompunere în valori singulare ne asigură că orice
matrice X (reală sau complexă), de forma K x d (în cazul nostru particular, X
este matricea X0 a eşantionului iar K este numărul de realizări particulare ale
lui x) poate fi descompusă şi scrisă ca un produs de matrici de forma:
X0 = U V*T (6.70)
unde:
U este o matrice unitară5 de forma K x K, numită matrice stânga de
vectori singulari (în literatura de specialitate această matrice mai
este cunoscută şi drept matricea de “ieşire”, ce conţine vectorii bazei
pentru matricea setului de date X0):
| | |
U u1 u2 u K (6.71)
| | |
5
U*T U = U U*T = I sau U 1 U *T
235
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
1 0 0
0 0
2
(6.73)
0 0 d
0 0 0
0 0 0
Elementele i ce aparţin matricii pot fi privite drept constante ce
controlează câştigul prin intermediul căruia fiecare intrare este
multiplicată pentru a obţine o anumită ieşire.
Matricea , prezentată mai sus, a fost scrisă în ipoteza K d (situaţie
uzuală pentru matricile seturilor de date obţinute empiric). Pentru această
matrice există în plus și proprietatea că 1 2 … d, iar o parte din k,
pentru k luând valori aflate spre sfârşitul şirului {1, 2, 3, …, d – 1, d}, pot fi
chiar zero. În general vor fi r valori singulare diferite de zero, unde r este
rangul6 matricii X0. Este important de subliniat că, indiferent dacă matricea
datelor, X0, este reală sau complexă, valorile singulare sunt întotdeauna reale
şi pozitive.
Dacă numărul de linii K este mai mic decât d atunci, matricea ia forma:
1 0 0 0 0
0 0 0 0
2 (6.74)
0 0 K 0 0
unde, din nou, parte din k, pentru k luând valori situate spre sfârşitul
intervalului 1 ÷ K, pot fi zero. În acest caz, rangul r, respectiv, numărul de
valori singulare diferite de zero, este egal cu numărul de linii independente
din matricea X0.
Aplicând relaţia (6.70), în acest moment, nu este greu să arătăm că
vectorii proprii ai matricii X0*TX0 sunt vectorii singulari dreapta ai
matricii X0, şi că valorile proprii ale aceleiaşi matrici, X0*TX0, sunt pătratul
valorilor singulare ale matricii X0. Pentru a demonstra acestea dezvoltăm
produsul X0*T X0 astfel:
X0*T X0 = V *T U*T U V*T = V ( T ) V*T (6.75)
6
Rangul unei matrici este dat de numărul de coloane liniar independente.
236
Transformări liniare
237
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
U
238
Transformări liniare
A = U V*T
239
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
240
Transformări liniare
sau
x1 y
x | | | 1
2 y2 (6.87)
1 2 d
| | |
xd yd
Deci, se observă din relaţia (6.86) că orice vector aleator x se poate scrie sub
forma unei combinaţii liniare de vectori ortonormaţi i.
În continuare, în reprezentare vom reţine numai un subset m (m < d) de
vectori ai bazei, i, şi de coeficienţi yi. Restul de coeficienţi yi vor fi înlocuiţi
de un set de constante bi. Astfel, dorim să reprezentă în mod optim vectorul
x (dar nu numai un vector, ci întreg setul de date disponibil) în forma dată de
relaţia (6.86) prin eliminarea numai a acelor componente specifice ale
vectorilor bazei astfel încât să avem cea mai bună aproximare a întregului
set de date conform cu un criteriu de acurateţe a reprezentării. Acest criteriu
va fi pentru problema de faţă cel al erorii medii pătratice. În aceste condiţii
vectorul x va fi estimat astfel:
7
Pentru pescompunerea lui x în vectorii i vezi Anexa: Descompunere matricială sub
forma unei combinaţii de vectori.
241
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
m d
x yi i
~
b i i
(6.88)
i 1 i m 1
E
bi y j b j iT j
d d
2 E x~ y
2
x i
(6.90)
j m 1 i m 1
Ţinând cont că vectorii i sunt ortonormali relaţia (6.90) devine:
E ( y bi ) 2 (6.91)
d
2 i
i m 1
2
d
i m1
E iT x iT Ex Ex Exx Ex
2
d
i m1
T
i
T
i (6.95)
iar, în final:
d
2
i m 1
T
i C x i (6.96)
242
Transformări liniare
i 1
d
f em1 ,..., ed , m1 ,..., d 2 i
T
i
(6.97)
i m1
Formula (6.86):
d
x K LT y yi ei (6.104)
i 1
243
Algoritmi şi metode inteligente cu aplicaţii în electronică şi biomedicină, vol I
a cărei matrice a transformării este formată din vectorii proprii ei, poartă
denumirea de transformata Karhunen-Loève.
Problema minimizării lui 2 se numeşte în statistică „analiza
componentelor principale” sau analiză factorială [Neagoe, 1992].
Dacă calculăm în continuare matricea de covarianţă în noul spaţiu de
trăsături, y, utilizând simultan şi relaţia (6.102) obţinem:
1 0 0
0 2 0
C y K L Cx K L
*T
(6.106)
0 0 d
Clasa 2
y1
Direcţie principală
Utilizarea
trăsăturii y2 e2
determină o e1
eroare
mică de x1
clasificare
Utilizarea trăsăturii y1 determină
o eroare mare de clasificare
244
Transformări liniare
245