Sunteți pe pagina 1din 13

Algoritmul MPCA[1] este după cum urmează:

Intrare: Un set de imagini feţe, S {Xi , i 1, ,m}


Ieşire: dimensionale redus set de imagini feţei Sd {Yi , i 1, ,m}
din fata probelor de intrare cu variaţie maximă capturat.
Algoritm:
Pasul 1 (Preprocesare): Centrul faţa probelor de intrare ca
~
{X =X −~
i X , i=1 , ⋯ , m
i }
în cazul în care
m
1
X= ∑X (3.17)
m i=1 i
este proba medie.
Pasul 2 (iniţializare): Se calculează eigen-descompunerea
m
( n) ∗¿= ∑ ~ ~T
X i ( n) . X i(n) ¿
(3.18)
Φ i=1

şi a stabilit~
U ( n) să constea din vectorii proprii corespunzătoare cele mai semnificative Pn for
n=1,..., N.
Pasul 3 (Local optimizare):
Calculăm

{~Y i=~X i ×1~


U (1 ) ×2~
U (2) ⋯ ×N ~
T T T

U (N ) , i=1 , ⋯ , m } (3.19)
Calculăm
m
2
ψ yo =∑ ‖~
Y i‖F (3.20)
i=1

~ ~
(Media  Y este zero, deoarece toate X ieste centrat).
Pentru k=1:K
o Pentru n=1:N
Setaţi matrice ~
 U ( n)să constea din Pn vectorii proprii ale matricei Φ (n) ,
o Calculaţi {~
Y i , i=1 , ⋯ , m } ş i ψ yk .
o If ψ yk −ψ yk−1 <η, pauză şi mergeţi la Pasul 4.
Pasul 4 (proiecţie): Dimensiunea redusă de proiecţie caracteristică matricei după proiecţie este
obţinute ca:

{~Y i=~X i ×1~


U (1 ) ×2~
U (2) ⋯ ×N ~
T T T

U (N ) , i=1 , ⋯ , m }
Analiza Discriminată Liniară (LDA)
Algoritmul LDA este prezentat în Figura 1.4,care conferă o imagine de ansamblu
conceptuală a acestui algoritm:
Pasul 1. Diagonalizarea Sb: găsim matricea V astfel încât VTSbV = Λ în cazul în care VTV = I.
Λ este o matrice diagonală sortată în ordine descrescătoare. Acest lucru se poate face folosind
Eigen tradiţional analiza, adică fiecare coloană a V este un vector de Sb, şi Λ conţine toate
valorile proprii. Ca Sb ar putea fi singular, unele dintre valorile proprii vor fi 0 (sau aproape de
0). 
Este necesar să se debaraseze aceste valori proprii şi vectorii proprii, ca de proiecţie directe, cu
un total de 0, ce nu transportă orice putere discriminativă. Fie Y primul m coloană de V (un m ×
n, n matrice fiind caracteristică spaţiului dimensionalitate), acum YTSbY = Db> 0 unde Db este m
× m principal sub-matrice de Λ.
Pasul 2. Z = YD-1/2b,(YD-1/2 b)TSb(YD-1/2 b) = I⇒ ZTSbZ = I
Astfel, Z îmbină Sb, şi reduce dimensionalitatea de la n la m.
Diagonalizarea ZTSw eigen de analiză: UTZTSwZU = Dw în cazul în care UTU = I. Dw pot conţine
0s pe diagonală. Având în vedere că obiectivul este de a maximiza raportul de total-risipi clasa
împotriva împrăştierei în interior, putem sorta elementele diagonale ale Dw şi aruncaţi unele
valori proprii în înalşime, împreună cu vectori lor proprii corespunzători. Este important pentru
a păstra dimensiunile cu cel mai mic eigen-valori, în spectrul 0s. Acesta este exact motivul de
ce am început de diagonalizăm Sb , mai degrabă decât Sw. 
Pasul 3. LDA matricea A =UTZT
O diagonalizare atât la numărător şi numărător în criteriul lui Fisher:
ASwOT= Dw, ASbOT= I
Pasul 4. În scopul clasificării, observaţi că A deja este diagonalizat Sw, prin urmare ca final de
transformare toate sferele de date ar trebui să fie[5]: x*← D-1/2w Ax

Fig. 1.4 Schema generală a algoritmului LDA.


Local Linear Embedding (LLE)
1. Calculaţi vecinii de fiecare punct de date.
2. Calculaţi ponderile Wij mai bune pe care reconstituie fiecare punct de date de la vecinii săi
prin minimizarea costurilor în ecuaţia. 1 de către liniar se potriveşte constrânse.
3. Calcula vectori yi care sunt cel mai bine reconstruite prin ponderile Wij
prin minimizarea formularuli pătratice în Ec. 3.27 de fund vectorii proprii nenul:
2
ε ( W )=∑ x i−∑ W ij x j (3.26)
|i | j

2
Φ ( Y ) =∑ y −∑ W y (3.27)
|i
i
| j
ij j

Scopul de primele două etape a algoritmului este de a păstreze geometria locală a datelor în
spaţiu dimensional redus, în timp ce ultimul pas descoperă structura globală, prin integrarea
informaţiilor din suprapunerea locale vecinii borhoods. 
Algoritmul detaliate pentru urmărirea noastre şi recunoaşterea cadru este rezumată după
cum urmează. La momentul t = 0:
Pasul 1. Initializare: Să θt* fi starea iniţială, şi Ft* fi imaginea feţei decupată din cadru
prisma. Redimensionarea Ft* la 20×20. Pentru fiecare k individuale, se calculează L2 distanţă
din imagine fata trunchiate pentru fiecare subspaţiu, şi să obţină αtk prin găsirea minim d(Ft*,αtk)
printre toate subspatiile. Iar k identitatea iniţială kt* de găsirea distanţei minime de la imagine
faţă trunchiate de vedere ascunse parametru αtk tuturor indivizilor.
Pentru j = 1,2, ... , N, proba {θ(j)0, 1 / N}j = 1N în conformitate cu p(θ0).
La momentul t = 1,2 ,...:
Pasul 2. Important pas de eşantionare:
~
Pentru j = 1,2, ... , N, propaga {θt -1(j),ωt -1(j)} de prelevare de probe θ(t j) utilizînd ecuaţia

1 0 0 1 0 0

[ ] [ ]
θt = 0 1 0 θt −1+ 0 1 0 U t (3.28).
0 0 1 0 0 1
Pasul 3. Calculul greutăţi:
Pentru j = 1,2, ... , N, rectificarea fiecarei candidat imagine fereastra la 20×20. Calculaţi
~
observare Zt (j) şi p( Z^ (tj )∨θ(t j) ) folosind ecuaţiile
Zt =I t ( X t ,Y t ) (3.29)
şi
1 ¿ ¿ ¿

P ( Z t|θt , k ¿t −1) = ∑ P ( Z t|θt , α kt t−1


) P(α kt t−1
∨α kt )(3.30)
t−1

Λα ¿
k t−1
t

(j) ( j) ( j) ~( j)
Update greutate cu ajutorul ω t ∝ ωt −1 p ( ^Zt ∨θt ).
N
( j) (j) (j)
Pentru j = 1,2, ... , N, normalizarea greutăţii ω =ω / ∑ ωt . t t
j=1

Pasul 4. Reeşantionarea pasului:


N N
Resample {θ(t j ) ω (t j) } j=1
pentru a obţine o nouă particulă set {θ(t j ) , /1 N } j=1.

Pasul 5. Stagiul de estimare:


N
( j)
Estimarea θ^ t =1/ N ∑ θt .
j =1

Pasul 6. Se confruntă cu recunoaşterea şi estimare a parametrului vedere ascunse


αtk:
obţineţi trunchiate F imaginea feţei Ft* de θ^ t . Redimensionarea Ft* la 20×20. Conduită faţă
recunoaştere pentru a obţine kt* folosind ecuaţiile.
k ¿=argmax {1,2,… , K } P ( F1 : l|k ) ,(3.31)
unde
l
P ( F1 : l|k ) =∑ P ( F1 : l|α 1k : l ) P(α k1: l)=∑ ∏ P ( F t|α kt ) P( α kt ∨α kt −1), (3.32)
t =1
¿
k k t −1
α 1: l αt

−[d (F t , α tk )]2
k
P ( F t|α )=exp
t
{ 2 σ 22 } ,(3.33)

Pentru fiecare k individual, estimare αtk fiecărui individ de constatare


minimă d(Ft*,αtk) printre toate subspaţiile.
Du-te la pasul 2 până la ultimul cadru[17].
Localitate Conservarea proiectie (LPP)
-este o aproximare liniară a eigenmap Laplacianul neliniare [4].
Procedura de algoritmică este formal a declarat de mai jos:
1. Construirea graficul de adiacenţă: G denotă un grafic cu k noduri. Stabilim o amrgine
între noduei j şi xi dacă xj sunt "aproape". Există două variante:
(a) ϵ- cartiere. [Parametruϵ ∈R]. Nodurile i şi j sunt conectate printr-o margine, dacă
2
‖x i−x j‖ <ϵîn cazul în care norma este euclidian norma obişnuită în
Rl.
(b) n cel mai apropiat vecinii. [Parametru n ∈ N ]. Nodurile i şi j sunt conectate printr-o
margine, dacă i se numără printre n cei mai apropiaţi vecinii de j sau j se numără printre n cel
mai apropiat de vecini i.
Notă: Metoda de a construi un graficul de adiacenţă subliniat mai sus este corectă în cazul în
care datele de fapt, se află pe un subspatiu dimensional reduse multiplu. În general, însă, s-ar
putea să ia o perspectivă mai utilitară şi construi
un graf adiacenţă bazează pe nici un principiu (de exemplu, similaritatea perceptuale pentru
semnalele naturale, hyperlink structuri pentru documente web, etc). Odată ce un astfel de grafic
adiacenţă se obţine, LPP va încerca să păstreze optim alegerea proiecţilor.
2. Alegerea greutăţi Aici, precum şi, avem două variante pentru ponderarea margini:
(a) de căldură kernel. [Parametru t ∈ R]. Dacă nodurile i şi j sunt conectate, puse
2
‖ Xi − X j‖ (1)
t
W ij =e
(b) simple-minded. [Nr parametru]. W ij =1dacă şi numai dacă nodurile i şi j sunt conectate
printr-o margine.
3. Eigenmaps Calculaţi vectorilor şi valorilor proprii pentru problema vector generalizate:
XLXLa=λXDXTa

în cazul în care D este o matrice diagonală ale căror intrări sunt coloană (sau rând, deoarece W
este simetrică) sume de W, Dij=ΣjWij. L=D-W este matricea Laplacianul.
Prima coloana din matrice X este xi.
Lasa un a0, a1, .... , ak-1 fi soluţiile ecuaţiei (1), a ordonată în funcţie de valorile proprii, λ0<
λ1<...<λk-1. Astfel, integrarea este după cum urmează:
X i →Y j= A T X i
A=( a0 , a1 , ⋯ , am )
unde yi este un m-dimensional vector, şi A este un l×m matrice.

2D LPP este o bi-dimensională de extindere a confidenţialităţii.  Procedura algoritmului


nostru poate fi declarat în mod oficial ar fi următoarea:
1 Construirea a celui mai apropiat vecin
Fie G  un grafic cu N noduri, nodul i corespunde imaginii Ai. Am pus o margine între
noduri i şi j dacă Ai şi Aj sunt "aproape". Există mai multe metode pentru a măsura
"aproape". Aici sunt două posibilităţi:
- (a) k cel mai apropiat vecinii. Noduri i şi j sunt conectate printr-o margine, dacă i este printre
k cel mai apropiat printre vecinii de j sau j este printre k este printre cel mai apropiat de
vecini i.
- (b) ε-cartere. Nodurile i şi j sunt conectate în cazul în care ||Ai-Aj||< ε în cazul în care
distanţa dintre două matrici ||*|| este doar distanţa Euclidiană de vectorizarea reprezentarea lor
în Rmn[1].

2  Alegerea greutăţi
Dacă există o margine intre nodurile i si j, punem o greutate similitudine Sij pe ea şi
vom obţine o matrice simetric (N × N) . Greutatea similitudine Sij pot fi:
- (a) simplă Sij= 1, nodurile i şi j sunt legate de o margine.
2

- (b) dacă nodurile i şi j sunt legate, puse  S ij=e xp


−‖ A i− A j‖
{ t } ,

unde t este o constantă adecvată. 

3  Eigenmap
Calculaţi vectorilor proprii şi valorilor proprii pentru generalizarea problemii de valori
proprii:
AT ( L ⊗ I m ) A w =λ A T (D⊗ ℑ)Aw (3.52)
unde D este o matrice diagonală cu Dii=ΣjSij. L = D-S este Laplacianul matricei. A este
un (mN × n) matrice generate de amenajarea a toate imaginile matricei în coloana
T
A=[ A T1 , AT2 , … , ATN ] . Operator ⊗ este un produs Kronecker de matrice Im şi este matricea
identitate de ordinul m.
Să întroducem w1,w2, ...,wd fiind primul d unitar vector ortogonala soluţie ecuaţiei (3.52)
corespunzătoare generalizate autovalori d, ordonate în funcţie
de amploarea lor 0 ≤ λ1≤ λ2≤ ... ≤ λd. Aceste valori proprii sunt nenegative deoarece matricele
AT(L  ⊗ Im)A şi AT(D  ⊗ Im)A sunt atât simetrice cît şi semidefinite pozitiv. Astfel, integrarea
este următoarea:
Ai→ Xi= AiW, W = (w1,w2, ...,wd), i = 1, 2, ..., N.
unde Xi este (m × d) caracteristica matricei  Ai . W este transformare matrice (n × d) .
După formarea de 2D-LPP, caracteristica matricei de fiecare imagine şi transformarea matricei
se obţine. Apoi, un vecin clasificator ca cel mai apropiat vecin poate fi utilizat ficare
clasificator. Aici distanţa dintre matricele caracteristice,  Xi= (x(i)1 ,x(i)2, ..., x(i)d) şi
Xj= (x(j)1,x(j)2, ..., x(j)d), Este definită de d (Xi, Xj) =Σdk = 1| | x(i)k-x(j)k| |. Prezintă faptul că X1, X2, ...,
XN sunt matrice caracteristică a imaginilor de formare A1, A2, ..., AN, şi fiecare imagine are o
clasă (identitate) C k. Având în vedere o imagine de test A0, caracteristică matricei X0 pot fi
obţinute prin X0= A0W. În cazul în care d (X0, Xj) = minid(X0, Xi) şi Aj∈ Ck, apoi vom lua
decizia A0∈ Ck[9].
Local Topology Structure Preserving Projections (LTSPP)
Algoritmul pentru un sistem  biometric unimodal  propus unificat este alcătuit din
următoarele trei etape principale:
1. Preprocesarea datelor biometrice prime: Fiecare date biometrice prime sunt normalizate  la
unitate,  care este crucial pentru a îmbunătăţi ratele de recunoaştere.
2. Selecţia subspaţiului dimensional redus: intrinsec subspaţiu dimensional redus a datelor
biometrice preprocesate este determinată prin folosirea algoritmului LTSPP.
3. Clasificarea în subspaţiul determinat: clasificarea este realizată în subspaţiu determinat
prin utilizarea sumei intraclase distanţă[13].

,
Analiza pe Componente Principale (PCA)
Algoritmul de procesare presupune parcurgerea următorilor paşi:
a) Se calculează valoarea medie a imaginilor care formează setul de antrenare (presupus a avea
K fotografii):
K

∑ Ij
I = j =1 (3.9)
K
şi se „centrează” imaginile originale (se aduc la valoare medie nulă):
I centrat
j =I j−I (3.10)
b) Se calculează aşa-numita scatter matrix, care reprezintă aproximarea matricii de covarianţă a
imaginilor din baza de date (aproximarea este cu atât mai bună cu cât avem mai multe imagini
la dispoziţie):
1
S= A∗AT (3.11)
K
unde matricea A are pe coloane câte o fotografie centrată:
A=[ I 1centrat I centrat
2 … … … I centrat
k ](M × N)× k (3.12)
Matricea S este simetrică şi are dimensiuni (M*N)x(M*N).
c) Se calculează valorile şi vectorii proprii ai matricii S (vectorii proprii ai matricii S în cazul
lucrului cu imagini reprezentând feţe poartă denumirea Eigenfaces).
d) Se ordonează valorile proprii ale matricii S în sens descrescător. Se trasează un grafic care
exprimă pierderea de informaţie în raport cu factorul de compresie.
Astfel, dacă notăm cu λ i , i=1 …( M × N ), valorile proprii sortate ale matricii S,
graficul anterior se referă la raportul (pe abscisă avem j=1 …( M × N)):
j

∑ λi
i=1
(M × N )
(3.13)
∑ λj
j=1

Graficul anterior permite estimarea numărului de valori şi vectori proprii consideraţi


semnificativi (adică aceia care păstrează cea mai mare parte din energia imaginilor originale).
e) Se proiecteză imaginile (centrate) originale pe spaţiul descris de vectorii proprii
reprezentativi (tipic aceştia sunt în număr de 5-10% din numărul total). Proiecţia constă de fapt
în efectuarea produsului scalar dintre fiecare imagine originală şi o matrice având drept coloane
numai vectorii proprii semnificativi[15].
Pentru fiecare imagine (centrată) I centrat
j se obţine proiecţia pe baza relaţiei:
W Tj =I centrat
j ∙ V PAC (3.14 )
V PAC=[ E 1 E2 E3 … … … E N ] (3.15)
max

unde Nmax este numărul maxim de vectori proprii reţinuţi, Ej sunt vectorii proprii semnificativi,
iar vectorii Wj au dimensiunea (Nmax ×1)şi pot fi priviţi ca „semnăturile” asociate imaginilor
originale.
f) Clasificarea imaginilor test presupune mai întâi determinarea „semnăturii” fiecărei imagini în
raport cu subpaţiul determinat anterior (şi care depinde exclusiv de imaginile din setul de
antrenare!) şi găsirea acelei imagini din baza de date de antrenare a cărei semnătură este cea
mai apropiată de semnătura imaginii de test. Aprecierea similitudinii dintre astfel de perechi de
imagini se realizează folosind o metrică convenabil aleasă. Opţiunea uzuală este distanţa
Euclideană(L2), însă se pot utiliza şi alte măsuri precum funcţia de autocorelaţie, cosinusul
unghiului dintre 2 vectori sau distanţa Mahalanobis[10]. Definiţiile acestora se prezintă mai
jos:

D
2
Distanţa Euclideană: d L ( x , y )=∑ ( x i− yi )
2
i=1

D
Distanţa Manhattan: d L ( x , y )=∑|x i− y i|
1
i 01

D
Funcţia deintercorelaţie: C [ k ] = ∑ x i ∙ y i+k (3.16)
k=− D

x∙y
Cosinusulunghiuluidintre vectori: cos ( x , y )=
‖x‖∙‖ y‖
D

Distanţa Mahalanobis:
∑ xi ∙ y i
d M ( x , y )= i=1
√ λi
Procedura algoritmică a Laplacianfaces este formal după cum am declarat mai
jos:
1. PCA projection. Aceste proecţii imagine set sixe xi subspaţiu PCA prin aruncarea
departe cel mai mic principal componente. 
Din motive de simplitate, vom continua să utilizeze x pentru a indica imaginile PCA
subspace in urmatorii pasi. Notam cu WPCA matricea de transformare PCA.
2. Construirea graficului cel mai apropiat vecin.
 Fie G un grafic cu n noduri. Al i-lea nod corespunde imaginii faţă xi. Am pus o
margine între nodurile i şi j dacă xi şi xj sunt "aproape", adică, xj k cel mai apropiat
este printre vecinii de xi, sau xi se numără printre k cel mai apropiat vecinii de xj.
Construim cel mai apropiat graficul vecin este o aproximare locală a
multiplei structuri. Reţineţi că aici noi nu utilizează є-cartier pentru a construi
graficul. Acest lucru este pur şi simplu deoarece este adesea dificil de a alege optim
k în aplicatii reale, în timp ce k-cel mai apropiat vecin graficul poate fi construit mai
stabil. Defavorizate dezavantaj este că k-cel mai apropiat vecin de căutare va creşte
complexitatea computaţională a algoritmului nostru. Atunci când complexitatea de
calcul este o preocupare majoră, se poate trece la є-cartier.
3. Alegerea greutăţi. Dacă i nodul şi j sunt conectate, pune
2
‖X i − X j‖
t
Sij =e
unde t este o constantă potrivit. În caz contrar, pune Sij =0.
Greutatea matrice S este graficul de modele G cu fata de structuri de varietăţii de
conservare a structurii locale. Calculaţi vectori lor proprii şi eigenvasifilis pentru
problema vector generalizaţi:

XLXTw = XDXTw;
unde D este o matrice diagonală ale căror intrări sunt coloană (sau rând, deoarece S
este simetrică) sume de S, Dii=ΣjSji. L= D - S este matricea Laplacianul.
i-lea rând de matrice X este xi. Fie w0, w1,..., wK-1 fi soluţiile de mai sus, a ordonat
conform valorilor proprii lor, 0 ≤λ1,≤λ2,…,λk-1. Aceste valori proprii sunt egale cu sau
mai mare decât zero, deoarece matricelor XLXT şi XDXT sunt atât simetrice şi
semidefinite pozitiv. Astfel, integrarea este după cum urmează:
x→ y=W t x

W = WPCAWLPP

WLPP= [w0 ,w1 ,…, wK-1]


unde y este un vector k-dimensional. W este transformarea matrice. Această aplicaţie
liniară cele mai bune păstrează distribuitorului estimată geometrie intrinsecă într-un
sens liniar. Coloana de vectori W sunt aşa-numitele Laplacianfaces

S-ar putea să vă placă și