Documente Academic
Documente Profesional
Documente Cultură
Algoritmi
Algoritmi
şi a stabilit~
U ( n) să constea din vectorii proprii corespunzătoare cele mai semnificative Pn for
n=1,..., N.
Pasul 3 (Local optimizare):
Calculăm
U (N ) , i=1 , ⋯ , m } (3.19)
Calculăm
m
2
ψ yo =∑ ‖~
Y i‖F (3.20)
i=1
~ ~
(Media Y este zero, deoarece toate X ieste centrat).
Pentru k=1:K
o Pentru n=1:N
Setaţi matrice ~
U ( n)să constea din Pn vectorii proprii ale matricei Φ (n) ,
o Calculaţi {~
Y i , i=1 , ⋯ , m } ş i ψ yk .
o If ψ yk −ψ yk−1 <η, pauză şi mergeţi la Pasul 4.
Pasul 4 (proiecţie): Dimensiunea redusă de proiecţie caracteristică matricei după proiecţie este
obţinute ca:
U (N ) , i=1 , ⋯ , m }
Analiza Discriminată Liniară (LDA)
Algoritmul LDA este prezentat în Figura 1.4,care conferă o imagine de ansamblu
conceptuală a acestui algoritm:
Pasul 1. Diagonalizarea Sb: găsim matricea V astfel încât VTSbV = Λ în cazul în care VTV = I.
Λ este o matrice diagonală sortată în ordine descrescătoare. Acest lucru se poate face folosind
Eigen tradiţional analiza, adică fiecare coloană a V este un vector de Sb, şi Λ conţine toate
valorile proprii. Ca Sb ar putea fi singular, unele dintre valorile proprii vor fi 0 (sau aproape de
0).
Este necesar să se debaraseze aceste valori proprii şi vectorii proprii, ca de proiecţie directe, cu
un total de 0, ce nu transportă orice putere discriminativă. Fie Y primul m coloană de V (un m ×
n, n matrice fiind caracteristică spaţiului dimensionalitate), acum YTSbY = Db> 0 unde Db este m
× m principal sub-matrice de Λ.
Pasul 2. Z = YD-1/2b,(YD-1/2 b)TSb(YD-1/2 b) = I⇒ ZTSbZ = I
Astfel, Z îmbină Sb, şi reduce dimensionalitatea de la n la m.
Diagonalizarea ZTSw eigen de analiză: UTZTSwZU = Dw în cazul în care UTU = I. Dw pot conţine
0s pe diagonală. Având în vedere că obiectivul este de a maximiza raportul de total-risipi clasa
împotriva împrăştierei în interior, putem sorta elementele diagonale ale Dw şi aruncaţi unele
valori proprii în înalşime, împreună cu vectori lor proprii corespunzători. Este important pentru
a păstra dimensiunile cu cel mai mic eigen-valori, în spectrul 0s. Acesta este exact motivul de
ce am început de diagonalizăm Sb , mai degrabă decât Sw.
Pasul 3. LDA matricea A =UTZT
O diagonalizare atât la numărător şi numărător în criteriul lui Fisher:
ASwOT= Dw, ASbOT= I
Pasul 4. În scopul clasificării, observaţi că A deja este diagonalizat Sw, prin urmare ca final de
transformare toate sferele de date ar trebui să fie[5]: x*← D-1/2w Ax
2
Φ ( Y ) =∑ y −∑ W y (3.27)
|i
i
| j
ij j
Scopul de primele două etape a algoritmului este de a păstreze geometria locală a datelor în
spaţiu dimensional redus, în timp ce ultimul pas descoperă structura globală, prin integrarea
informaţiilor din suprapunerea locale vecinii borhoods.
Algoritmul detaliate pentru urmărirea noastre şi recunoaşterea cadru este rezumată după
cum urmează. La momentul t = 0:
Pasul 1. Initializare: Să θt* fi starea iniţială, şi Ft* fi imaginea feţei decupată din cadru
prisma. Redimensionarea Ft* la 20×20. Pentru fiecare k individuale, se calculează L2 distanţă
din imagine fata trunchiate pentru fiecare subspaţiu, şi să obţină αtk prin găsirea minim d(Ft*,αtk)
printre toate subspatiile. Iar k identitatea iniţială kt* de găsirea distanţei minime de la imagine
faţă trunchiate de vedere ascunse parametru αtk tuturor indivizilor.
Pentru j = 1,2, ... , N, proba {θ(j)0, 1 / N}j = 1N în conformitate cu p(θ0).
La momentul t = 1,2 ,...:
Pasul 2. Important pas de eşantionare:
~
Pentru j = 1,2, ... , N, propaga {θt -1(j),ωt -1(j)} de prelevare de probe θ(t j) utilizînd ecuaţia
1 0 0 1 0 0
[ ] [ ]
θt = 0 1 0 θt −1+ 0 1 0 U t (3.28).
0 0 1 0 0 1
Pasul 3. Calculul greutăţi:
Pentru j = 1,2, ... , N, rectificarea fiecarei candidat imagine fereastra la 20×20. Calculaţi
~
observare Zt (j) şi p( Z^ (tj )∨θ(t j) ) folosind ecuaţiile
Zt =I t ( X t ,Y t ) (3.29)
şi
1 ¿ ¿ ¿
Λα ¿
k t−1
t
(j) ( j) ( j) ~( j)
Update greutate cu ajutorul ω t ∝ ωt −1 p ( ^Zt ∨θt ).
N
( j) (j) (j)
Pentru j = 1,2, ... , N, normalizarea greutăţii ω =ω / ∑ ωt . t t
j=1
−[d (F t , α tk )]2
k
P ( F t|α )=exp
t
{ 2 σ 22 } ,(3.33)
în cazul în care D este o matrice diagonală ale căror intrări sunt coloană (sau rând, deoarece W
este simetrică) sume de W, Dij=ΣjWij. L=D-W este matricea Laplacianul.
Prima coloana din matrice X este xi.
Lasa un a0, a1, .... , ak-1 fi soluţiile ecuaţiei (1), a ordonată în funcţie de valorile proprii, λ0<
λ1<...<λk-1. Astfel, integrarea este după cum urmează:
X i →Y j= A T X i
A=( a0 , a1 , ⋯ , am )
unde yi este un m-dimensional vector, şi A este un l×m matrice.
2 Alegerea greutăţi
Dacă există o margine intre nodurile i si j, punem o greutate similitudine Sij pe ea şi
vom obţine o matrice simetric (N × N) . Greutatea similitudine Sij pot fi:
- (a) simplă Sij= 1, nodurile i şi j sunt legate de o margine.
2
3 Eigenmap
Calculaţi vectorilor proprii şi valorilor proprii pentru generalizarea problemii de valori
proprii:
AT ( L ⊗ I m ) A w =λ A T (D⊗ ℑ)Aw (3.52)
unde D este o matrice diagonală cu Dii=ΣjSij. L = D-S este Laplacianul matricei. A este
un (mN × n) matrice generate de amenajarea a toate imaginile matricei în coloana
T
A=[ A T1 , AT2 , … , ATN ] . Operator ⊗ este un produs Kronecker de matrice Im şi este matricea
identitate de ordinul m.
Să întroducem w1,w2, ...,wd fiind primul d unitar vector ortogonala soluţie ecuaţiei (3.52)
corespunzătoare generalizate autovalori d, ordonate în funcţie
de amploarea lor 0 ≤ λ1≤ λ2≤ ... ≤ λd. Aceste valori proprii sunt nenegative deoarece matricele
AT(L ⊗ Im)A şi AT(D ⊗ Im)A sunt atât simetrice cît şi semidefinite pozitiv. Astfel, integrarea
este următoarea:
Ai→ Xi= AiW, W = (w1,w2, ...,wd), i = 1, 2, ..., N.
unde Xi este (m × d) caracteristica matricei Ai . W este transformare matrice (n × d) .
După formarea de 2D-LPP, caracteristica matricei de fiecare imagine şi transformarea matricei
se obţine. Apoi, un vecin clasificator ca cel mai apropiat vecin poate fi utilizat ficare
clasificator. Aici distanţa dintre matricele caracteristice, Xi= (x(i)1 ,x(i)2, ..., x(i)d) şi
Xj= (x(j)1,x(j)2, ..., x(j)d), Este definită de d (Xi, Xj) =Σdk = 1| | x(i)k-x(j)k| |. Prezintă faptul că X1, X2, ...,
XN sunt matrice caracteristică a imaginilor de formare A1, A2, ..., AN, şi fiecare imagine are o
clasă (identitate) C k. Având în vedere o imagine de test A0, caracteristică matricei X0 pot fi
obţinute prin X0= A0W. În cazul în care d (X0, Xj) = minid(X0, Xi) şi Aj∈ Ck, apoi vom lua
decizia A0∈ Ck[9].
Local Topology Structure Preserving Projections (LTSPP)
Algoritmul pentru un sistem biometric unimodal propus unificat este alcătuit din
următoarele trei etape principale:
1. Preprocesarea datelor biometrice prime: Fiecare date biometrice prime sunt normalizate la
unitate, care este crucial pentru a îmbunătăţi ratele de recunoaştere.
2. Selecţia subspaţiului dimensional redus: intrinsec subspaţiu dimensional redus a datelor
biometrice preprocesate este determinată prin folosirea algoritmului LTSPP.
3. Clasificarea în subspaţiul determinat: clasificarea este realizată în subspaţiu determinat
prin utilizarea sumei intraclase distanţă[13].
,
Analiza pe Componente Principale (PCA)
Algoritmul de procesare presupune parcurgerea următorilor paşi:
a) Se calculează valoarea medie a imaginilor care formează setul de antrenare (presupus a avea
K fotografii):
K
∑ Ij
I = j =1 (3.9)
K
şi se „centrează” imaginile originale (se aduc la valoare medie nulă):
I centrat
j =I j−I (3.10)
b) Se calculează aşa-numita scatter matrix, care reprezintă aproximarea matricii de covarianţă a
imaginilor din baza de date (aproximarea este cu atât mai bună cu cât avem mai multe imagini
la dispoziţie):
1
S= A∗AT (3.11)
K
unde matricea A are pe coloane câte o fotografie centrată:
A=[ I 1centrat I centrat
2 … … … I centrat
k ](M × N)× k (3.12)
Matricea S este simetrică şi are dimensiuni (M*N)x(M*N).
c) Se calculează valorile şi vectorii proprii ai matricii S (vectorii proprii ai matricii S în cazul
lucrului cu imagini reprezentând feţe poartă denumirea Eigenfaces).
d) Se ordonează valorile proprii ale matricii S în sens descrescător. Se trasează un grafic care
exprimă pierderea de informaţie în raport cu factorul de compresie.
Astfel, dacă notăm cu λ i , i=1 …( M × N ), valorile proprii sortate ale matricii S,
graficul anterior se referă la raportul (pe abscisă avem j=1 …( M × N)):
j
∑ λi
i=1
(M × N )
(3.13)
∑ λj
j=1
unde Nmax este numărul maxim de vectori proprii reţinuţi, Ej sunt vectorii proprii semnificativi,
iar vectorii Wj au dimensiunea (Nmax ×1)şi pot fi priviţi ca „semnăturile” asociate imaginilor
originale.
f) Clasificarea imaginilor test presupune mai întâi determinarea „semnăturii” fiecărei imagini în
raport cu subpaţiul determinat anterior (şi care depinde exclusiv de imaginile din setul de
antrenare!) şi găsirea acelei imagini din baza de date de antrenare a cărei semnătură este cea
mai apropiată de semnătura imaginii de test. Aprecierea similitudinii dintre astfel de perechi de
imagini se realizează folosind o metrică convenabil aleasă. Opţiunea uzuală este distanţa
Euclideană(L2), însă se pot utiliza şi alte măsuri precum funcţia de autocorelaţie, cosinusul
unghiului dintre 2 vectori sau distanţa Mahalanobis[10]. Definiţiile acestora se prezintă mai
jos:
D
2
Distanţa Euclideană: d L ( x , y )=∑ ( x i− yi )
2
i=1
D
Distanţa Manhattan: d L ( x , y )=∑|x i− y i|
1
i 01
D
Funcţia deintercorelaţie: C [ k ] = ∑ x i ∙ y i+k (3.16)
k=− D
x∙y
Cosinusulunghiuluidintre vectori: cos ( x , y )=
‖x‖∙‖ y‖
D
Distanţa Mahalanobis:
∑ xi ∙ y i
d M ( x , y )= i=1
√ λi
Procedura algoritmică a Laplacianfaces este formal după cum am declarat mai
jos:
1. PCA projection. Aceste proecţii imagine set sixe xi subspaţiu PCA prin aruncarea
departe cel mai mic principal componente.
Din motive de simplitate, vom continua să utilizeze x pentru a indica imaginile PCA
subspace in urmatorii pasi. Notam cu WPCA matricea de transformare PCA.
2. Construirea graficului cel mai apropiat vecin.
Fie G un grafic cu n noduri. Al i-lea nod corespunde imaginii faţă xi. Am pus o
margine între nodurile i şi j dacă xi şi xj sunt "aproape", adică, xj k cel mai apropiat
este printre vecinii de xi, sau xi se numără printre k cel mai apropiat vecinii de xj.
Construim cel mai apropiat graficul vecin este o aproximare locală a
multiplei structuri. Reţineţi că aici noi nu utilizează є-cartier pentru a construi
graficul. Acest lucru este pur şi simplu deoarece este adesea dificil de a alege optim
k în aplicatii reale, în timp ce k-cel mai apropiat vecin graficul poate fi construit mai
stabil. Defavorizate dezavantaj este că k-cel mai apropiat vecin de căutare va creşte
complexitatea computaţională a algoritmului nostru. Atunci când complexitatea de
calcul este o preocupare majoră, se poate trece la є-cartier.
3. Alegerea greutăţi. Dacă i nodul şi j sunt conectate, pune
2
‖X i − X j‖
t
Sij =e
unde t este o constantă potrivit. În caz contrar, pune Sij =0.
Greutatea matrice S este graficul de modele G cu fata de structuri de varietăţii de
conservare a structurii locale. Calculaţi vectori lor proprii şi eigenvasifilis pentru
problema vector generalizaţi:
XLXTw = XDXTw;
unde D este o matrice diagonală ale căror intrări sunt coloană (sau rând, deoarece S
este simetrică) sume de S, Dii=ΣjSji. L= D - S este matricea Laplacianul.
i-lea rând de matrice X este xi. Fie w0, w1,..., wK-1 fi soluţiile de mai sus, a ordonat
conform valorilor proprii lor, 0 ≤λ1,≤λ2,…,λk-1. Aceste valori proprii sunt egale cu sau
mai mare decât zero, deoarece matricelor XLXT şi XDXT sunt atât simetrice şi
semidefinite pozitiv. Astfel, integrarea este după cum urmează:
x→ y=W t x
W = WPCAWLPP