Documente Academic
Documente Profesional
Documente Cultură
- curs -
CUPRINS
1. CONCEPTE FUNDAMENTALE ALE TEORIEI RECUNOATERII FORMELOR.................................................3
1.1. CE ESTE RECUNOATEREA FORMELOR?............................................................................................................................3
1.2. SPAIUL FORMELOR..........................................................................................................................................................3
1.3. MODURI DE ABORDARE A PROBLEMATICII RECUNOATERII FORMELOR...........................................................................3
1.4. CARACTERISTICILE UNUI SISTEM GENERAL DE RECUNOATEREA FORMELOR..................................................................4
1.4.1. Translatorul..............................................................................................................................................................4
1.4.2. Selectorul de caracteristici.......................................................................................................................................5
1.4.3. Clasificatorul............................................................................................................................................................5
2. PRINCIPIILE GENERALE ALE TEHNICILOR DE RECUNOATERE A FORMELOR.......................................7
2.1. INTRODUCERE...................................................................................................................................................................7
2.2. METODE TEORETICE DECIZIONALE...................................................................................................................................8
2.2.1. Vectori de form i spaiul formelor.........................................................................................................................8
2.2.2. Tehnici de decizie i clasificare................................................................................................................................9
2.3. RECUNOATEREA NECONTROLAT. TEHNICI DE GRUPARE.............................................................................................15
2.4. TEHNICI DE NVARE....................................................................................................................................................17
3. METODE DE CLASIFICARE BAZATE PE OPTIMIZAREA UNEI FUNCII CRITERIU...................................19
3.1. GENERALITI................................................................................................................................................................19
3.2. DISIMILARITATE. NORMALIZAREA DATELOR..................................................................................................................19
3.2.1. Msuri de disimilaritate.........................................................................................................................................19
3.2.2. Normalizarea datelor..............................................................................................................................................22
3.3. MSURI DE SIMILARITATE...............................................................................................................................................22
3.3.1. Msuri de similaritate pentru vectori binari..........................................................................................................23
3.4. FUNCIA CRITERIU.........................................................................................................................................................24
3.5. ALGORITMI DE CLASIFICARE ITERATIV.........................................................................................................................25
3.5.1. Algoritmul n-medii..................................................................................................................................................25
3.5.2. Algoritmul ISODATA..............................................................................................................................................28
4. ANALIZA DISCRIMINANT..........................................................................................................................................31
4.1. AXE DISCRIMINANTE.......................................................................................................................................................31
4.2. MATRICI DE IMPRTIERE PENTRU N CLASE...................................................................................................................34
4.3. AXE DISCRIMINANTE PENTRU N CLASE...........................................................................................................................35
4.4. ANALIZA COMPONENTELOR PRINCIPALE.........................................................................................................................37
5. PARTIII NUANATE FUZZY.......................................................................................................................................42
5.1. CONCEPTE.......................................................................................................................................................................42
5.2. CLASIFICARE CU PARTIII FUZZY. PRINCIPII...................................................................................................................43
5.3. FUNCTIA CRITERIU. ALGORITMUL N-MEDII FUZZY.........................................................................................................43
5.3.1. Interpretarea unei partiii fuzzy..............................................................................................................................46
Capitol 1
1. Concepte fundamentale ale teoriei recunoaterii formelor
1.1. Ce este recunoaterea formelor?
Prin recunoaterea formelor se nelege n mod obinuit acel ansamblu de metode i tehnici cu
ajutorul cruia se poate realiza o clasificare n cadrul unei mulimi de obiecte, procese sau fenomene.
Setul de obiecte, procese sau fenomene care urmeaz a fi clasificate pot fi obiecte (fenomene) fizice
sau structuri intelectuale, prin acestea nelegnd ansamblul concretizat de procese legate de o activitate
intelectual coerent (scris, vorbit, etc)
Scopul recunoaterii formelor const n determinarea clasei din care face parte o colecie de
observabile. Metoda este deosebit de util atunci cnd abordarile directe sunt imposibile sau cnd
inferenele teoretice lipsesc.
Stabilirea numrului de clase n care se mpart formele este o problem particular care depinde
exclusiv de aplicaiile concrete ale metodei.
1.2. Spaiul formelor
Conceptul fundamental al teoriei recunoaterii formelor este urmtorul:
Un obiect sau un fenomen variabil, Xj, este descris (caracterizat) printr-un set de n caracteristici
xij (i=1,,n). Toate aceste n caracteristici ale unui obiect formeaz o form.
Mulimea x={Xj}j=1,m poart denumirea de spaiul formelor. Deci un obiect (form) X poate fi
reprezentat printr-un punct X(x1,,xn) n spaiul formelor.
O problem este aceea a raportului dintre numrul de forme luate n considerare, m, i numrul
de dimensiuni al spaiului formelor, n, adic raportul m/n dintre numrul maxim de obiecte din setul
respectiv, m, i numrul de caracteristici, n, aferent fiecruia dintre obiecte. Dac numrul de forme, m,
este mai mic, egal sau numai puin mai mare dect numrul de caracteristici atunci discriminarea dintre
forme i atribuirea lor la diferitele clase posibile este un proces pur aleator.
n general, se consider c acest raport m/n, pentru orice aplicaie de recunoaterea formelor,
trebuie s ndeplineasc urmtoarele condiii:
(i)
(ii)
m
3,
n
m
10, ,
n
(1.1)
unde m reprezint numrul de forme, iar n este numrul de caracteristici independente (numr de
dimensiuni).
Condiia (i) reprezint minimum necesar pentru o clasificare binar, n timp ce condiia (ii) este
de dorit n aplicaiile concrete ale tehnicilor de recunoaterea formelor.
1.3. Moduri de abordare a problematicii recunoaterii formelor
Pentru rezolvarea problemelor de recunoatere a formelor au fost propuse i utilizate o mare
varietate de tehnici matematice din teoria informaiei, statistica matematic, teoria deciziei, geometrie,
etc. , de fapt dou maniere diferite de abordare a problematicii acestui domeniu:
1. Abordarea statistic (numit i decizional - teoretic) i
3
INTRARE
TRANSLATOR
Selector de
caracteristici
Clasificator
IEIRE
1.4.1. Translatorul
Translatorul transform i transfer informaiile din lumea real n spaiul formelor ntr-o form
compatibil cu modul de reprezentare din calculatoarele electronice. n consecin datele primare,
rezultat al observaiei sunt transformate ntr-un ir de mrimi scalare care formeaz vectorul de form
n-dimensional. Fiecare component xi a vectorului de form X reprezint o cantitate fizic msurabil;
este foarte important ca ea s surprind esena datelor primare.
Modul de implementare al translatorului depinde exclusiv de natura datelor primare. Dac
acestea sunt constituite dintr-o succesiune de valori msurate la intervale de timp, cum sunt traseele
EEG, atunci sunt necesare procedee de eantionare n timp, pe cnd dac ele sunt funcie de frecven,
cum sunt de exemplu spectrele n infrarou ale compuilor chimici, atunci trebuie dezvoltate procedeele
de eantionare a frecvenei (respectiv numerelor de und). n cazul imaginilor sunt luate n considerare
suprafeele mai luminoase sau mai ntunecate, muchiile sau formele geometrice. Aceasta este o
problem ceva mai complicat i, de aceea , au fost propuse o serie de metode pentru reducerea
complexitii imaginilor la un ir de msurtori.
O situaie fericit, n care translatorul nu mai este necesar, apare atunci cnd informaiile din
lumea real sunt exprimate numeric (de exemplu, n cazul spectrelor de mas).
4
(1.2)
Aceast etap n care este determinat funcia de decizie f(X) este cunoscut sub numele de faz
de formare (formarea), de adaptare sau uneori de nvare. Scopul urmrit este minimalizarea
probabilitii de eroare n procesul de clasificare.
Conceptul de clasificare a formelor poate fi neles ca o partiionare a spaiului formelor, x
={X} prin atribuirea fiecrui vector X sau punct X (x1, ,xn) la o clas de forme corespunztoare n
regiuni reciproc exclusive, fiecare regiune corespunznd unei clase de forme particular. Din punct de
vedere matematic problema clasificrii poate fi formulat sub forma funciilor de decizie discriminate.
Fie 1, 1,.p cele p clase distincte posibile care urmeaz a fi recunoscute cu
X = 1 U 2 U .Up,
1 2 p = Fd
(1.3.)
i fie X=|xi |i=1,n vectorul de form, xi reprezentnd a i-a caracteristic reprezentativ. Atunci funcia de
decizie discriminant f(X)=Dj (X) asociat clasei de forme j, j=1,,p, astfel nct dac forma de intrare
reprezentat prin vectorul X, respectiv punctul X, este n clasa i, fapt pe care-l vom nota prin Xi ,
valoarea lui Di(X) trebuie s fie cea mai mare, adic pentru toi Xi vom avea satisfcut relaia:
Di(X) > Dj(X),
i, j =1,,p.
(1.4)
n felul acesta, n spaiul formelor x frontiera partiiei, denumit limita de decizie, dintre
regiunile corespunznd claselor i i respectiv, j, poate fi definit prin urmtoarea relaie:
Fd= Di(X)-Dj(X) = 0
(1.5)
n figura 2.8. este reprezentat modelul unui clasificator care utilizeaz funciile discriminant.
Forma de intrare este analizat conform relaiei (1.4), clasificatorul furniznd drept ieire indicele k
aparine {1,2,,p} corespunztor clasei k din care face parte forma respectiv X.
D1
X
MAX
D2
Dp
Fig. 1.4-2 Modelul clasificatorului ce utilizeaz funcia discriminant
Pentru determinarea funciilor discriminant neparametrice setul de formare trebuie s fie mare
i, de asemenea, reprezentativ pentru a permite estimarea acestora din funciile de probabilitate.
Capitol 2
2. Principiile generale ale tehnicilor de recunoatere a formelor
2.1. Introducere
Recunoaterea formelor are ca obiect clasificarea unui set (mulime) de obiecte, procese sau
evenimente, indiferent care ar fi natura lor. De exemplu, acestea pot fi obiecte i fenomene fizice sau
stri fiziologice i mintale. Setul de msurtori indirecte cu ajutorul creia este descris sau caracterizat
un obiect poart numele de form. Numrul de tipuri (clase) de forme este determinat de aplicaia
concret, particular. Astfel, dac de exemplu se pune problema recunoaterii caracterelor alfabetice
(alfabetul romn) vom avea o problem de clasificare cu 27 de clase, pe cnd n cazul n care se
urmrete discriminarea ntre caracterele latine i cele chirilice problema de clasificare va avea doar
dou clase. De fapt clasificarea formelor constituie un proces fundamental care apare att n cadrul
activitilor umane curente ct i n majoritatea ramurilor tiinei.
Modelele matematice utilizate pentru rezolvarea problemelor de recunoatere a formelor pot fi
grupate n dou mari categorii:
metode teoretice-decizionale (sau statistice)
metode sintactice (sau lingvistice).
n cazul metodelor teoretice-decizionale procesul de clasificare se bazeaz pe un set de
msurtori selectate din forma de intrare, numite caracteristici.
n cazul metodelor sintactice de recunoatere a formelor, numit uneori i recunoatere
structural, procesul de clasificare ine cont i de informaia structural care caracterizeaz fiecare
form. Ca urmare procesul de recunoatere nu se limiteaz doar la clasificarea formei respective ci el
include i metode capabile s descrie acele aspecte ale formelor care le fac s nu poat fi atribuite altor
clase.
Recunoaterea formelor const din urmtoarele dou aspecte importante:
1. Extragerea caracteristicilor eseniale pentru procesul particular de clasificare. n mod
obinuit decizia care se ia n aceast etap este relativ subiectiv i depinde de considerente
practice cum ar fi: accesibilitatea execuiei msurtorilor, costul acestora, etc. Din
nefericire, la ora actual nu exist o teorie ct de puin general asupra procesului de selecie
a celor mai reprezentative caracteristici. Criteriile care stau la baza procesului de selectare a
caracteristicilor i de ordonare a acestora se bazeaz fie pe importana lor n caracterizarea
formelor, fie pe contribuiile pe care le aduc la performanele recunoaterii (de exemplu
acurateea clasificrii).
2. Clasificarea propriu-zis, adic luarea deciziei privind apartenena formelor la o clas.
Metodele matematice folosite n acest scop sunt adeseori denumite clasificatori. n figura
Fig.2.1. prezentm schema bloc a unui sistem de recunoatere a formelor.
r1
r2
LUMEA
FIZIC
(REAL)
X1
X1
rR
X2
SELECTOR
X2
TRANSLATOR
XR
CLASIFI
CATOR
IEIRE
XNj
Fig.
Error
! No
text
Nj<R
x1
x
2
(2.1)
..
xn
X x x . x
'
X2 x21 x2 . x2n ,
X
. .
' x x .x
Xm m1 m2 mn
'
1 1 12 1n
(2.2)
1
i
2 m= X,
(2.3)
1 2 m = F.
Unde cu F s-a notat mulimea care constituie frontierele dintre clase, iar cu X s-a notat vectorul
de form. n acest caz funcia discriminant Dj(X) asociat clasei de forme j, j =1,, m are proprietatea
c dac forma reprezentat prin vectorul X face parte din i, fapt pe care-l vom simboliza Xi, cu i
specificat, atunci valoarea lui Di(X) trebuie s fie cea mai mare, adic pentru toi Xi va fi ndeplinit
condiia
Di(X) > Dj(X); i,j = 1, , m, ij.
(2.4)
n felul acesta limitele de partiionare ale spaiului caracteristicilor (desemnate anterior cu F),
denumite i limite de decizie, pot fi exprimate cu ajutorul relaiei
F = Di(X) Dj(X) = 0; i, j=1,,m, ij
(2.5)
Au fost propuse foarte multe forme pentru funcii discriminant D i(X), forme ce satisfac condiia
(2.4). dintre acestea vom meniona n continuare doar pe cele mai importante.
2.2.2.1.Funcii discriminant liniare
ntr-un spaiu bidimensional aceste funcii sunt liniare i pot fi scrise sub forma:
x1-mx2-b=0,
sau
W1x1+W2x2+W3x3=0
(2.6)
unde:
m - este coeficientul unghiular,
b - termenul liber,
iar W1= 1, W2= -m i W3= -b.
ntr-un spaiu n- dimensional funciile sunt hiperplane de forma:
W1x1+W2x2+.+Wnxn+Wn+1= 0
(2.7)
n acest caz funcia discriminant Di(X) asociat clasei de forme i reprezint o combinaie
liniar a caracteristicilor xi, i =1,,m, dat n relaia:
n
Di(X)=
k 1
(2.8)
Ecuaiile hiperplanelor date de relaia (1.8), pentru m clase de forme, pot fi scrise matriceal
astfel:
D(X)= W X
Unde:
10
x1
x
2
W1,1 . . W1,n1
Wm,1 . . Wm,nm
X
xn
1
(2.9)
Di(X) Dj(X) =
Wkxk+Wn+1 ; k = 1...n;
(2.10)
k 1
unde:
Wk=Wi,k Wj,k
i
Wn+1=Wi,n+1-Wj,n+1.
Ecuaia (2.10) reprezint ecuaia unui hiperplan din spaiul caracteristicilor x, numit i plan de
decizie. Pentru a ilustra modul de utilizare a funciilor discriminant liniare prezentm un exemplu n
care avem dou forme ntr-un spaiu bi-dimensional. Fie formele X1 i X2 date de:
1
4
X1 X 2
4
2
i
11
x1
D( X ) W X 1;0,5;2 x2 0
1
Dac nlocuim pe X1 i X2 n D(X), obinem:
D( X1) W X ;1 0,5;2 4 1 2 3 3
1
i respectiv
D( X 2 ) W X 1;0,5;2 2 4 1 2 1
1
Pentru orice punct aflat deasupra lui D(X) = 0, D(X) este pozitiv i negativ pentru punctele de
sub dreapt. Astfel, pentru cazul a dou clase, polaritatea n evaluarea lui D(X) determin la care clas
aparine forma dat (Fig. 1.2-1).
12
X2
4
D(X)=0
3
X1
2
1
Tipul 2 utilizeaz funcii de decizie care separ spaiul formelor n dou regiuni. Prima
regiune conine dou clase, iar cea de-a doua restul claselor. Separarea celor dou clase
i i j se face cu ajutorul unei funcii de decizie de forma Dij(X) = 0. Apartenena unei
forme la clasa i sau j este asigurat dac Dij(X) > 0.
iii)
Tipul 3 reprezint un caz special al tipului 2 de clasificare. Din analiza figurilor 2.2-2a i
2.2-2b se observ prezena unui spaiu nedeterminat care apare n interiorul triunghiului
format din cele trei drepte corespunztoare funciei de decizie. Punctele din interiorul
acestui triunghi nu pot fi atribuite la nici una din cele trei clase. Pentru a elimina aceast
nedeterminare, funcia de decizie de tipul 2, Dij(X) = 0 este nlocuit cu Di(X)-Dj(X) = 0,
unde Di(X) i Dj(X) sunt funcii de decizie de tipul 1. Pentru ca o form s fie atribuit
clasei i este necesar, n acest caz, ndeplinirea condiiei D i(X)>Dj(X) pentru toi ji
(vezi fig. 2.2-2c).
13
X1
- +
+Fi
g.
Er
ro
r!
N
o
X1
D3=0
Fi
g.
1 Er
ro
r!
N
o
2te
xt
of
sp
aec
+
-
D23=0
D23=0
D1=0
D13=0
D12=0
1
D12=0
3
D2=0
X2
D13=0
X2
X2
Dac clasele pot fi separate utiliznd tipul 1 de clasificare, regiunile n care este prezent
clasele vor fi mai compacte, fapt care conduce la o mai bun identificare a claselor dect n cazul
utilizrii tipului 2 sau 3 de clasificare. In schimb, ns, regiunea de nedeterminare este mare. Dac n
aplicaia practic apar forme n regiunea de nedeterminare rezultate n urma aplicrii tipului 1 de
clasificare, poate fi ncercat utilizarea tipului 2 de clasificare, n care regiunea de nedeterminare este
mai mic sau a tipului 3 (tipul 3 de clasificare are dezavantajul c timpul de calcul este mare)
2.2.2.2.Clasificatorul de distan minim
O important clas de clasificatori se bazeaz pe valoarea distanelor dintre forma de intrare i
un set de vectori de referin sau puncte prototip din spaiul caracteristicilor (prototipurile sunt forme a
cror apartenen la clase este cunoscut). Dac vom presupune c sunt cunoscui m vectori de
referin, notai cu R1, R2,Rm, cu Rj asociat clasei j , atunci clasificatorul de distan minim va
atribui forma de intrare X clasei i dac distana dintre aceasta i vectorii de referin este minim,
adic X i dac d = X-Ri = minim.
(2.11)
Considerm dou grupe de puncte distincte n spaiul formelor i ne propunem s determinm
funcia de decizie care va putea separa spaiul formelor n dou regiuni care vor corespunde celor dou
clase. Iniial vom determina vectorii de referin pe care i vom considera reprezentnd centrele celor
dou grupri de puncte. Valoarea punctelor prototip poate fi calculat cu o relaie de forma :
N
R 1 / N X i
(2.12)
i 1
unde N reprezint numrul de forme dintr-o grupare. Distana dintre o form X i centrul gruprii R (R
este de forma R = (r1, r2,,rm)) este dat de relaia d = X-R. Dac considerm c cele dou grupri se
afl ntr-un spaiu bi-dimensional, atunci d va avea urmtoarea form :
d2 = (x1 - r1)2 +(x2 - r2)2 = x12 - 2x1r1 + r12 + x22 - 2x2r2 + r22.
In cazul cnd avem mai mult de dou clase, distana dintre o form X i R i al gruprii i este dat
de :
d i2 X Ri X X 2 X Ri Ri Ri
2
(2.13)
Deoarece X X este aceeai pentru toate clasele, el poate fi eliminat. Dac nmulim relaia
(1.13) cu 0.5, vom obine :
Di ( X ) X Ri 0,5 Ri Ri
(2.14)
14
Deoarece di2 a fost nmulit cu un numr negativ rezult c cea mai mare funcie de decizie
(max Di(X)) identific distana minim i deci clasa lui X.
Pentru determinarea termenilor W, din funcia de decizie D( X ) W X se utilizeaz relaia
(2.14) i rezult Wi Ri , pentru i = 1,.., n i WN 1 0,5 Ri Ri .
Din cele spuse anterior rezult c un clasificator de distan minim este un clasificator liniar.
Performana unui astfel de clasificator depinde evident de modul cum sunt alei vectorii de referin dar
i de felul cum sunt evaluate distanele. Cele mai frecvente distane utilizate sunt cele derivate de
distana general Minkovski.
d Minkovski
x r
i
i 1
1/ k
(2.15)
d Euclid
x r
i
i 1
1/ 2
(2.16)
d Manhat tan xi ri
(2.17)
i 1
Dac toate caracteristicile xi i ri, i =1,,n sunt codificate binar (au doar valorile 0 sau 1), atunci
distana Manhattan poart numele de distana Hamming. Distana Hamming este echivalent cu
numrul de caracteristici care sunt diferite n X i R. Aplicarea lui SAU EXCLUSIV, simbolizat aici
prin XOR, permite calcului foarte rapid al distanei Hamming conform relaiei:
n
(1.18)
i 1
min( n , m )
k 1,...,U
X R (j k ) ,
j = 1,,m
(2.19)
Uj fiind numrul de vectori de referin din setul R j. Clasificatorul ce utilizeaz acest tip
de distan va fi de forma
15
Di ( X )
D
m
k 1,...,U
(k )
i
( X ) , i =1, , m
(2.20)
Aceti clasificatori sunt adesea denumii clasificatori liniari pe poriuni sau clasificatori
bazai pe cei mai apropiai U vecini.
ii)
Di ( X ) Wi , k f k X Wi , L 1 ,
(2.21)
k 1
unde:
k1, k2,.kr = 1,,n
f k ( X ) x x .... x pentru
n1
k1
n2
k2
nr
kn
i
n1, n2,,nr = 0 i 1.
Limita de decizie dintre oricare 2 clase are forma unui polinom de ordinul r. n mod
particular, pentru r = 2 obinem o funcie discriminant ptrat cu
iii)
j 1
16
Forma necunoscut trebuie asignat clasei cu p(j /x) maxim. Formula poate fi
generalizat pentru cazul unor vectori de trsturi n dimensionali.
p j / X
p X / j P j
,
p X
(2.24)
unde:
X
este vectorul de form n-dimensional.
Clasificarea Bayes este de forma:
Di(X) = P(i)*p(X/i), i =1,,n
(2.25)
17
start
Iniializeaz X (centrul
gruprii)
Calculeaz Dj
Dj < T
Creeaz un nou
centru al gruprii
Asigneaz Xjj
Au fost
clasificati
toi X
STOP
Citete noul Z
Studiind acest algoritm pot fi determinate o serie de caracteristici ale tehnicilor de grupare.
1. Alegerea centrelor claselor (gruprilor).
Modul de alegere afecteaz viteza de clasificare ca i numrul de grupe (clase) care rezult n
urma executrii procedurii de clasificare. Din acest motiv se recurge, de obicei, la calculul
continuu a unui centru al clasei pe msur ce la acesta se atribuie noi forme. n acest caz,
centrul gruprii poate s nu corespund cu o forma existent.
2. Alegerea criteriului de clasificare.
n cazul exemplului dat, criteriul de clasificare este o distan. Se observ c valoarea lui T
afecteaz rezoluia procesului de clasificare. Dac T este prea mare, dou sau mai multe clase
distincte pot fi grupate n una singur. n cazul n care T este prea mic, o grupare poate fi
mprit n mod artificial n cteva grupe. Pentru determinarea valori lui T se ine cont de
efectul pe care-l va avea aceast valoare asupra numrului de grupri. n cazul general se
utilizeaz criteriile de similaritate i nesimilaritate prin care se asigur apartenena unei forme la
o clas. Acestea pot fi distane sau ali parametri.
n figura Fig 2.3-2 se prezint un algoritm general de grupare care ia n considerare criteriile de
grupare specificate anterior.
18
START
Iniializeaz numrul de
clase (valori maxime, limite)
Determin ce
face cu X
O nou
grup
NU
XZj
Atribuie X la
clasa j
DA
Construiete
gruparea
S-au luat n
considerare
toi X
NU
DA
Combin noile
centre modific
parametrii
Reclasific
DA
NU
STOP
astfel nct funcia de decizie s devin pozitiv. Dac aceast condiie a fost ndeplinit pentru toate
formele din clasa 1 se repet operaia pentru formele din clasa 2 (care au fost nmulite n prealabil
cu 1 pentru ca funcia de decizie s fie pozitiv). Operaia presupune:
i)
stabilirea unei valori iniiale pentru vectorul de ponderi;
ii)
stabilirea unei modaliti de modificare a lui W.
20
Capitolul 3
3. Metode de clasificare bazate pe optimizarea unei funcii criteriu
3.1. Generaliti
n acest capitol vor fi prezentate o serie de metode deterministe de clasificare. Aceste metode sunt n
esen proceduri de optimizare a unor funcii criteriu. Pentru construirea unei funcii criteriu se admite c fiecare
clas este reprezentat printr-un prototip geometric. Prototipurile pot fi punctuale, caz n care clasele au
aproximativ form sferic sau liniar, caz n care clasele au form alungit. Funcia criteriu reprezint o msur a
apartenenei sau a neapartenenei unei partiii a datelor la prototipurile claselor. Calitatea unei partiii este cu att
mai mare cu ct punctele fiecrei clase sunt mai grupate n jurul prototipului clasei.
O alt posibilitate pentru contruirea funciei criteriu este aceea de a utiliza matricile de mprtiere a
datelor. Clasificarea optim va fi aceea n care mprtierea n interiorul fiecrei clase este minim (clasele sunt
mai compacte) i mprtierea ntre clase este mai mare (clasele sunt ct mai separate una de alta) .
Se studiaz dou metode puternice de analiz a datelor : Analiza Discriminant (AD) i Analiza
Componentelor Principale (ACP) . Se evidenieaz faptul c AD i ACP pot servi pentru elaborarea unor tehnici
de clasificare.
1
p
(1)
xi yi
i 1
De fapt (1) reprezint o familie infinit de matrici. Pentru p = 1 din (1) se obine:
p
d(X, Y) xi yi
(2)
i 1
d(X, Y)
x
i 1
1
2
yi
(3)
21
(4)
S considerm c valorile posibile ale caracteristicilor formelor de clasificat sunt n numr finit i fie d
acest numr. n acest caz ca msur de disimilaritate se pot utiliza distanele Hamming i Lee.
Distana Hamming dintre vectorii X i Y este dat de numrul componentelor (poziiilor) n care cei doi
vectori difer. Ponderea Hamming a vectorului X, notat cu WH(X), se definete ca fiind numrul de
componente nenule ale lui X. Rezult c distana Hamming dintre X i Y este egal cu ponderea Hamming a
diferenei lor :
dH (X, Y)= WH(X, Y)
(5)
Distana Lee
Fie q un numr ntreg, pozitiv, q2 i
X = (x1, x2,...,xd), cu xi{0,1, . . . ,q-1}.
Ponderea Lee a vectorului X, notat cu WL(X), se definete ca fiind:
WL(X)
i 1
unde:
dac 0 xi
xi
xi
q
2
q
q xi dac xi q 1
2
x
i 1
yi
1 p i
x
p i 1
(7)
1 p i
mk= x k
p i 1
i reprezint valoarea medie a caracteristicii k. Dac ne raportm din nou la mulimea de obiecte X atunci
caracteristica i a lui X este
Xi={ xi1, xi2, . . . , xip}
i deci vom putea scrie c :
22
mi= MX i
unde cu M am notat operatorul valoare medie.
Cu aceasta putem s definim dispersia valorilor n jurul valorii medii att pentru:
caracteristica i
i2 = ii= M(Xi - mi)2
(8)
caracteristicile i i k
ik= M(Xi - mi)(Xk - mk)
(9)
p
2
1
2
j
Relaia (8) se mai poate scrie i xi mi din care rezult imediat prin dezvoltarea termenului din
p j 1
sum
i2 M(Xi2)-mi2
(10)
i deci
1 p
i2 xij 2 mi2
(11)
p j 1
Cu aceste observaii se poate defini matricea C(d,d) de componente ik ca reprezentnd matricea de
dispersie pentru mulimea X de obiecte. n cadrul acestei matrici elementul ii va reprezenta mprtierea
(dispersia) norului de obiecte n direcia axei i a sistemului de coordonate .
S considerm acum un nor de obiecte
X={x1, x2, . . . , xp}
al crui vector medie coincide cu originea spaiului, adic M(X) = 0. Ne propunem s determinm dispersia
(mprtierea) norului n direcia vectorului u. Considernd c obiectele prezint 3 caracteristici de exemplu,
devine posibil reprezentarea norului de obiecte ntr-un spaiu tridimensional
x 11
1
x
X 2
:
1
xd
... x 1p
... x 2p
: :
... x dp
Putem calcula o matrice [Y] a proieciilor norului de obiecte X pe direcia u. Putem scrie c:
[Y] = [u]T[X]
(12)
23
mprtierea norului X n direcia u este dat de dispersia proieciilor punctelor sale pe u adic de
dispersia lui [Y]. Putem deci scrie:
2([Y]) = 2([u]T[X])=M([u] T[X])2 - (M([u] T[X]))2
dar cum M(X) = 0 , dispersia u2X a norului n direcia u se scrie:
2uX=2([Y])= M([u] T[X])2
(13)
care d mprtierea gruprii de obiecte n direcia u.
xi'
xi mi
i
i=1,...,d
(14)
este o transformare de normalizare, ce const dintr-o translaie i o transformare de scal. Prin aceast
transformare a axelor de coordonate, toate caracteristicile au media zero i dispersia unu. n adevr, media i
dispersia noii caracteristici i se pot scrie:
M(Xi')=
1 p j 1 p xii mi
0
xi p
p j 1
i
j 1
(15a)
x mi
2
i2 1
= M i
(15b)
i
i
Normalizarea (14) este util i n cazul cnd caracteristicile au aceeai unitate de msur. n acest caz
normalizarea realizeaz o uniformizare a rolului diferitelor caracteristici, mpiedicnd anumite caracteristici s
devin dominante n calculul distanei numai datorit faptului c au valori numerice mari.
Dac valorile unei caracteristici sunt mici, atunci aceste proiecii ale obiectelor pe axa corespunztoare
se reprezint ca o singur clas omogen. Dispersia caracteristicii respective fiind mic , prin normalizare
valorile numerice ale proieciilor se mresc. Ca urmare norul proieciilor nu mai apare omogen ci structurat n
clase.
'2
i
24
S1(x,y)=
x y
x y
xT y
(1)
x y
unde :
(x .y) - este produsul sacalar a doi vectori, pentru cazul dat avem x1y1+x2y2+...+xdyd
[x]T
- transpusa matricii componentelor formei x
||x||
- normala lui x : x x12 x22 ... xd2
Aceast msur de similaritate este util atunci cnd mulimea X a datelor este format din clusteri
liniari. O distan poate induce o msur de similaritate. Dac d este o distan peste X, atunci putem defini
distana normalizat d/dmax, unde:
d max max d ( x, y )
x , yX
S=
x y
i
i 1
[ x ]T [ y ]
x y
[ x ]T
x y
este o msur relativ a numrului de atribute comune. Modificnd relaia (1) se pot obine diverse msuri de
similaritate. Se pot obine astfel:
nlocuind numitorul cu numrul de atribute a unui obiect avem:
[ x]T [ y ]
(2)
S 3 ( x, y )
d
coeficientul lui Tanimoto
[ x ]T [ y ]
S 4 ( x, y )
(3)
[ x ]T [ x ] [ y ]T [ y ] [ x ]T [ y ]
Aceast msur este mult utilizat n probleme ridicate de regsirea informaiei, biologie etc.
Se observ c dac atributul i lipsete simultan din x i y atunci (1-xi)(1-yI)=1 i deci
d
T=
(1 - x )(1 - y )
i 1
(4)
25
u=
x (1 - y )
(5)
(1 - x )y
(6)
i 1
d
v=
i 1
reprezint numrul atributelor prezente n x dar care lipsesc din y i respectiv numrul atributelor care sunt
prezente n y dar lipsesc din x .
Cu aceste notaii este uor de vzut c sunt adevrate urmtoarele egaliti
s+u+v+t = d
(7a)
T
[
x
]
[
x
]
s+u =
(7b)
s+v = [ y ]T [ y ]
(7c)
innd cont de considerentele anterioare, semnificaia msurilor de similaritate date mai jos este uor de intuit:
st
S5( x , y )=
,
(Kendal-Sokal)
(8)
d
s
y
S6( x , )=
1
,
(Dice)
(9)
s (u v )
2
s
S7( x , y )=
,
(Sokal-Sneath)
(10)
s 2(u v )
st uv
S8( x , y )=
(Yule)
(11)
su sv
S9( x ,
)=
st uv
( s u )( s v)(t u )(t v)
(Pearson)
(12)
Fiecare element Ai a partiiei P va corespunde unei clase (nor, cluster) de obiecte, astfel nct punctele unei
clase s fie mai asemntoare dect punctele din clase diferite. Asemnarea obiectelor este dat de o msura de
similaritate sau de o msur de disimilaritate. Pe baza unei astfel de msuri putem construi o funcie criteriu.
Problema de clasificare se reduce astfel la problema determinrii partiiei ce realizeaz optimul funciei criteriu
(obiectiv). Pentru a construi o funcie obiectiv al crei extrem s fie partiia cutat, avem nevoie s fixm o
anumit reprezentare a partiiei. Aceste reprezentri depind de scopul clasificrii ca i de structura datelor.
Structura se poate postula, bazndu-se pe anumite informaii apriorii, sau poate fi determinat prin aplicarea
unor metode de analiz preliminar a datelor (analiza componentelor principale, analiza factorial etc.)
S admitem faptul c fiecare clas Ai se poate reprezenta printr-un prototip Li dintr-un spaiu de
reprezentare L.
L = L1 , L 2 , L n
constituie reprezentarea partiiei P .
Fie D o msur de disimilaritate peste X. Admitem c pornim de la D se poate construi o disimilaritate
ntre un obiect din X i un prototip. Acest lucru este ntotdeauna posibil cnd D este o distan sau ptratul unei
distane. Vom nota cu Di aceast msur de disimilaritate indus de ctre D.
Di este aadar o funcie
Di: X R
i
26
Di(x, Li)
msoar gradul n care obiectul x difer de prototipul Li
Notm cu
I : P(X) qR
o funcie care masoar gradul de inadecvare al repezentrii unei clase printr-un prototip. Admitem c msura
I(Ai, Li) a inadecvrii clasei Ai prin prototipul Li este dat de
I(Ai, Li) =
Di(x,Li)
(1)
x Ai
dup care vom considera c inadecvarea reprezentrii partiiei P prin L este de forma:
n
J(P, L) =
I(Ai, Li)
(2)
I 1
D
i
x, Li
J(P, L) = i 1 x A i
(3)
unde J reprezint funia criterie.
Problema de clasificare se reduce la determinarea partiiei P i a reprezentrii L care minimizeaz
aceast funcie criteriu. Deoarece mulimea partiiilor cu n clase ale lui X este finit, problema poate fi, teoretic,
rezolvat prin considerarea tuturor partiiilor. n realitate acest lucru nu este realizabil dect n situaii foarte
particulare. ntr-adevr numrul partiiilor cu n clase ce pot fi construite cu p obiecte este
1 n
np
nk
k
p
(
1
)
C
k
n
n! k 1
n!
(4)
Acest numr este foarte mare pentru cele mai multe cazuri practice. De exemplu, pentru 5 clase i 100
obiecte avem circa 10 67 partiii distincte.
Cele mai utilizate metode pentru rezolvarea problemei de minimizare a funciei criteriu sunt metodele
iterative. Ideea de baz este de a porni de la o partiie iniial, care poate fi aleas arbritar sau determinat printrun alt algoritm. Obiectele de clasificat sunt transferate dintr-o clas n alta, dac o astfel de mutare amelioreaz
valoarea funciei criteriu. Procedura se oprete cnd nici o schimbare nu mai mbuntete valoarea funciei
criteriu. Procedurile iterative de acest tip asigur atingerea unui optim local. Alegeri diferite ale partiiei iniiale
vor conduce n final dup un interval mai mare sau mai mic de timp n general la soluii identice ale problemei
de clasificare.
27
D
i
i 1 x A i
J(P, L) =
x, Li
(3a)
de unde
n
x Li
J(P, L) = i 1 x Ai
(3b)
Pentru a determina minimul funciei criteriu, aceasta se va exprima ntr-o form uor modificat. Fie I Ai funcia
caracteristic a mulimii Ai. Folosind notaia:
Aij = IAi(xj) =
1 daca x j Ai
(4)
0 in caz contrar
4
2
3
0
0
0
0
0
1
J ( P, L) Aij x L i
(5)
i 1 j 1
innd cont de faptul c ntr-un spaiu euclidian produsul scalar a doi vectori este
( x, y ) [ x ]T [ y ]
J ( P, L) Aij [ x L i ]T [ x L i ]
j
(6)
i 1 j 1
J ( P, L)
0,
Li
i 1, n
(7)
de unde rezult c:
p
2 Aij [ x L i ] 0,
j
i 1, n
(8)
i 1, n
(9)
j 1
respectiv:
p
Aij x Aij Li 0,
j
j 1
j 1
de unde obinem:
28
Li
A
j 1
p
ij
, i 1, n
(10)
ij
j 1
(11)
j 1
x j L i x j L k , k i
1 dac
(14)
0 n caz contrar
Algoritmul n-medii const n aplicarea iterativ a formulelor (10), (14) sau (12), (13), plecnd de la o
partiie iniial a lui X. Aceast partiie iniial se poate alege arbitrar, se poate stabili folosind anumite informaii
asupra datelor sau poate constitui rezultatul aplicrii unui alt algoritm de clasificare.
Algoritmul n-medii const n executarea urmtorilor pai:
Li
A
j 1
A
j 1
ij
ij
1
pi
x Ai
Observaii:
A) n loc de a alege o partiie iniial putem porni de la o alegere arbitrar a n centrii, care pot fi n puncte din
mulimea X a datelor.
B) Rezultatele algoritmului n-medii depind de numrul de clase considerate, de alegerea iniial a partiiei sau a
centrilor i de propietile geometrice ale datelor. Cnd datele conin grupri caracteristice, relativ
ndeprtate unele de altele, deci sunt constituite din clusteri compaci i bine separai, rezulatele algoritmului
sunt bune. Determinarea numrului optim de clusteri prezeni n mulimea datelor constituie aa numita
problem a validitii clusterilor. Aceast problem nu poate fi rezolvat n cadrul acestui algoritm. Dac
29
avem unele informaii despre date, putem ca prin experimentri succesive s determinm valoarea care d
cea mai bun concordan cu datele iniiale.
C) O alt problem dificil apare cnd datele conin clase ce prezint diferene mari ale numrului de puncte. S
considerm cazul cnd datele constau din doi clusteri inegali ca populaie i extindere. Este posibil ca unele
puncte aflate la periferia clusterului mare s fie mai apropiate de centrul clusterului mic. Funcia criteriu
considerat va favoriza o partiie ce despic clusterul mare, fa de una ce menine integritatea acestuia.
Dac se consider n=2, atunci clusterul mai mic va capta unele din punctele periferice ale clusterului mare.
Acest efect "pseudo-gravitaional" reprezint o perturbaie pentru procesul de clasificare. Este o dificulatate
major care se poate rezolva fcnd ca distana de la un obiect la prototipul unei clase s depind de
dimensiunea clasei respective. Considerarea unei astfel de distane adaptive presupune n general ca
algoritmul s fie aplicat de dou ori.
D) Alte dificulti sunt legate de existena punctelor izolate (considerate zgomote) i a podurilor ntre clustere.
De altfel aceste dificulti apar i n alte tehnici de clasificare.
x Ai dac d x, m min d x, m , j 1, k
P3. Se suprim clasele avnd mai puin de p elemente i se repartizeaz obiectele n celelalte clase. Se
micoreaz k.
P4. Se recalculeaz centrii claselor dup formula
1
i
m
x , i 1, k
pi x Ai
P5. Se calculeaz diametrul mediu al fiecrei clase
1
i
Di
d x, m , i 1, k
p i x Ai
P6. Se calculeaz distana medie la care se afl obiectele fa de centrii claselor
1 k
1 k
i
d
x
,
m
pi Di
p i 1 xAi
p i 1
P7. 1) Dac aceasta este ultima iteraie atunci se pune c i se merge la P11
n
2) Dac k se merge la P8
2
30
p i xAi
Componenta ij a lui i reprezint dispersia datelor n direcia j.
P9. Pentru fiecare clas se determin componenta maxim a dispersiei
ij max ij i 1, k
P10. Se consider succesiv toate clasele. Dac exist o clas A i astfel nct
ijm s
i
Di D , pi 2 p 1
sau
n
2
atunci se despic clasa Ai n dou clase i se claculeaz centrii acestora
i
m
i m i
k
i
se terge m i i se pune k : k 1 . Centrul m i se obine adugnd la componenta m j m (care corespunde
componentei maxime ale lui m i ) o cantitate ijm a (unde 0 a 1 ). Centrul m i se obine scznd aceast
i
cantitate din m j m . Parametrul trebuie astfel ales nct diferena distanelor de la orice punct arbitrar la noii
centri s fie sesizabil ( mai mare dect un convenabil ales), dar s nu schimbe n mod apreciabil ntreaga
configuraie a claselor.
Dac s-a produs despicarea vreunei clase la acest pas se merge la P2. n caz contrar se va continua.
P11. Se calculeaz toate distanele ntre centri claselor
d ij d m , m
m m
, i 1, k 1 , j i 1, k
P12. Se compar distanele dij cu parametrul c . Se aranjeaz primele L distane mai mici dect c n ordine
cresctoare.
P13. Pornind de la perechea de clase A i , A j avnd distana centrilor cea mai mic se modific centrii dup
urmtoarea regul: Dac att pentru A i ct i pentru A j centrul nu a fost modificat, se nlocuiesc centrii
m i , m j prin centrul
1
i
j
m
pi m p j m .
pi p j
i
Se terg m , m j i se pune k : k 1 . Dac fie Ai fie A j au centrul modificat atunci perechea (i, j) nu e
luat n considerare i se trece la urmtoarea pereche.
P14. Dac aceasta este ultima iteraie sau dac poziia i numrul centrilor coincid cu cele de la iteraia
precedent STOP. In caz contrar se merge la P2 ( sau P1 dac se modific datele iniale).
31
Capitol 4
4. Analiza discriminant
4.1. Axe discriminante
Pentru precizarea ideiilor s considerm o mulime X de date dintr-un spaiu bidimensional. Valorile
caracteristicilor C1 i C2 ale datelor sunt date de proieciile norului X pe axele de coordonate x1 i x2. Structura
de clusteri a lui X se poate n acest caz detecta prin simpla inspecie vizual. Diferii observatori pot indica
diferite moduri de grupare a datelor n clas. Acesta relev faptul c puterea c puterea de discriminare a
caracteristicilor este slab pentru datele considerate. Exist dou posibiliti:
fie nu s-au ales cele mai bune caracteristici ale datelor;
fie c datele prin natura lor sunt foarte asemntoare.
Este de dorit n acest caz s determinm un nou sistem de coordonate fa de care structura de clusteri a
norului X s fie mai evident dect n sistemul iniial. Axele noului sistem au deci o putere de discriminare a
claselor din X superioar celei a axelor iniiale. n unele situaii este suficient s determinm o singur ax
discriminant, astfel nct proieciile norului de obiecte X pe acest ax s conste din clase compacte i bine
separate.
Mrimea puterii discriminante a axelor poate fi aadar reclamat de datele problemei, pentru a putea
"vedea" o anumit structur a datelor. Determinarea axelor discriminante poate servi i ca o tehnic de reducere a
dimensiunii spaiului caracteristicilor, prin aceea c cunt selectate cele mai relevante caracteristici. Reducerea
dimensiunii poate fi impus i de necesitatea vizualizrii claselor ntr-un spaiu cu una sau dou dimensiuni. n
acest caz cerina fundamental este ca prin proiectarea datelor ntr-un spaiu de dimensiune redus, la clasele
compacte i bine separate din spaiul iniial s corespund clase compacte i bine separate din noul spaiu. n
acelai timp informaiile legate de mprtierea datelor servesc i la construirea unor criterii de clasificare.
Ne propunem:
Fie X x1 , x 2 ,..., x p cu x i R d mulimea datelor ( x i este o form care este definit printr-un
numr de d caracteristici- atribute). Dorim s determinm o dreapt care trece prin originea spaiului astfel nct
proieciile punctelor norului X pe aceast dreapt s formeze clase bine separate. n plus cerem ca structura de
clusteri a lui X s nu fie prea mult alterat prin proiectarea norului X pe acest dreapt.
Fie u vectorul unitar al dreptei cutate. Proieciile punctului x i pe dreapta de direcie u este:
i
i
T
i
y u , x u x
(1)
S considerm c n X sunt prezente clasele A1 i A 2 . Admitem c proieciile pe u ale punctelor clasei
A1 formeaz o clas B1 iar punctele din A 2 se proiecteaz pe u n clasa B2. Fie pi numrul de puncte din
clasa Ai i
1
i
m
(2)
x , i 1, 2
p i xAi
(3)
(3a)
Si
y m
yB i
i 2
(4)
2
(5)
IP S 1 S 2
D B 1 , B 2 d 2 m , m
1
2 2
ai
(6)
m
J u
2 2
(7)
S1 S 2
Definiie
Direcia u care realizeaz maximul funciei J se numete ax discriminant. Rescriem J astfel ca
aceasta s apar ca o funcie explicit de u astfel:
2
Si
y m
yB i
de unde
2
Si
1 2
x Ai
xu m
i 2
x A i
x m u x m u x m x m
i
i T
(8)
x Ai
Si
x m x m
i
(9)
xAi
(10)
Si u Si u
(11)
I P S 1 S 2 u S 1 u u S 2 u
sau
T
I P u S w u unde S w S 1 S 2 este matricea de mpritierea intra-clase
Momentan am rezolvat numitorul funciei criteriu (7).
Numrtorul se va putea scrie
m m
2 2
2 T
(u ( m m )) 2 u m m m m u
SB
Matricea
2 T
SB m m m m
se numete matricea de mprtiere inter-clase.
(12)
2 2
(13)
u SBu
J u
u SBu
(14)
u S wu
33
J u
0
U
se obine ecuai:
T
T
2S B uu S w u u S B u 2S w u 0
de unde
T
SBu
u SBu
T
u S u
w
Swu
J u
rezult c:
S B u S wu
(15)
1
w
(16)
1
n concluzie determinarea direciei u se reduce la determinarea vectorului propiu a matricei S w S B
OBSERVAIE
Pentru determinarea maximului funciei J nu este necesar s calculm vectorii i valorile proprii ale matricei
1
Sw SB.
Pentru aceasta s observm c:
vectorul propriu a lui S B se poate scrie
' u S B u m m m m
T
unde m1 m 2 u este un scalar k
1
u k m
2 T
(17)
Deoarece raportul k nu are importan pentru direciea lui u , rezult c maximul funciei criteriu J este:
1
1
2
u Sw m m
(20)
(23)
x m x m
i T
Si
(24)
xAi
Sw Si
(25)
i 1
x m x m
ST
(26)
xX
S B pi m m m m
i 1
(27)
x m x m
ST
i 1 x Ai
ST x m x m
i 1 xAi
xm m m xm m x
x X
rezult c:
(28)
i T
m m m
i 1 xAi
xm m m m m xm
i 1 x A i
i 1 x A i
i T
ultimele 2 sume sunt 0. S considerm spre exemplificare ultima sum unde calculm componenta kj a acestei
matrici
m
n
i 1 x Ai
i 1
i
k
mk x j m ij
x Ai
i
k
xj
x Ai
i
k
m ij
x Ai
xj
x A i
m ij
p i m ki m ij p i m ki m ij p j m k m ij p j m k m ij 0
i 1
ST x m x m
i 1 xAi
i T
i 1 xAi
m m m
35
i 1
i 1
S i pi m m m m
i
ST Sw S B
u 11
u 12
... u 1n 1
u 12
U=( u ,u , . . . ,u )=
:
1
ud
u 22
:
u 2d
... u 2n 1
:
:
... u dn 1
n-1
(30)
y1
y
2
y=
:
yn 1
(31)
i
1 m
pi m
p i 1
(34)
S B pi m m m m
i 1
(35)
SW
y m y m
1
pi
y B i
i T
(36)
Deoarece
i
(37)
m U m i m U m
rezult c
i
y m U
x m
i
(38)
Avem deci
T
T
S B U S B u si S W U S W u
(39)
36
(33)
Se observ c fiecare termen diagonal al matricii Si este proporional cu dispersia datelor din clasa Ai n
direcia respectiv. Rezult deci c elementele diagonale ale matricii SW de mprtiere intraclase reprezint
dispersiile mulimii X a obiectelor n direciile axelor de coordonate.
Propoziie
Valoarea proprie corespunztoare vectorului propriu v a lui Si reprezint o msur a mprtierii
punctelor clasei Ai n direcia vectorului unitar v.
Demonstraie
Fie v un vector propriu unitar al matricei Si corespunztor valorii proprii. Proiecia vectorului x n
direcia vectorului v este:
x'=vTx
iar proiecia vectorului mi este :
m'i=vTmi
mprtierea proieciilor clasei Ai n direcia v este dat de:
Si'=
'
m 'i
x ' A i
v x m x m
T
i T
x ' A i
Adic
'
Si v S i v
Rezult c mrimea mprtierii (dispersiei) obiectelor clasei Ai n direcia v este dat de:
vTSi v = vTv=||v||2=
J d 2j este minim
(1)
j 1
Problema determinrii dreptelor care aproximeaz cel mai bine, norul este considerabil simplificat dac
vom arta mai nti c orice dreapt ce minimizeaz cantitatea Y trece prin centrul de greutate al norului de
puncte. Pentru nceput vom stabilii acest rezultat n cazul cnd X este o mulime de puncte din plan, urmnd apoi
s demonstrm c rezultatul este adevrat pentru orice dimensiune finit a spaiului.
Fie V-W un nou sistem de coordonate, astfel nct axa W este paralel cu dreapta L (vezi figura
urmtoare)
37
L
xj
V
W
Vj
Wj
J(v0)= v j v0
(4)
j 1
de unde rezult c
p
(5)
j 1
38
L
xj
H
s
xj
Deoarece d(xj,L) = d(x'j,s) funcia criteriu devine o funcie de variabil s i deci avem:
p
J(s) = d
j 1
'j
,s
(7)
'j
J(s)= x s
j 1
x
T
'j
(8)
(9)
'j
-2 x s 0
j 1
ceea ce implic c
p
1 p 'j
(10)
x
p j 1
j 1
Considerm un sistem ortogonal de coordonate, avnd axa K paralel cu dreapta L. Rezult c dreapta
xjxj (paralel cu L i cu axa K) este perpendicular pe planul format de oricare dou dintre axele diferite de K.
Aadar, n sitemul considerat xj i x'j vor avea aceleai componente, cu excepia celor corespunztoare axei K.
'j
sp 0 i deci avem s =
39
xj
xj
sj
si
i
Fig. 4.4-9 Sistemul ortogonal de coordonate.
Rezult c
1 p 'j 1 p j
si= xi xi , i k
(11)
p j 1
p j 1
Am artat aadar c dreapta L trece prin punctul s, unde si ik este componenta i a centrului de greutate.
Axa k fiind paralel cu L, rezult c centrul de greutate se afl pe L deoarece n caz contrar L nu ar putea trece
prin componentele si, ik ale centrului de greutate.
Deoarece dreapta optim trece ntotdeauna prin centrul de greutate al norului de puncte, putem
considera c datele sunt totdeauna normalizate astfel nct s aib media 0.
O astfel de normalizare revine la o translaie
x'=x-m
x X
(12)
unde m este valoarea medie a punctelor din X. Prin aceast translaie centrul de greutate al norului este adus n
originea sistemului de coordonate. Se va nota cu X' norul format din datele transformate.
Problema determinrii direciilor principale devine:
Fiind dat o mulime X' de puncte din Rd, avnd media 0, s se gseasc dreapta care trece prin origine i
minimizeaz funcia criteriu J.
Fie u vectorul care ne d direcia dreptei cutate i fie u 1 . Ptratul distanei de la punctul xj la
dreapta de direcie u este:
j
d2(xj, u) = x - ( xj, u)
(13)
j
Pentru simplitate am notat datele normalizate tot cu x , j = 1,,p. Datele fiind normalizate, problema
determinrii liniei realiznd cea mai bun aproximare a norului revine la determinarea direciei u care
minimizeaz funcia J:RdR dat de:
p
J(u)= d
j 1
x ,u
j
(14)
j 1
j 1
j
J(u)= x x , u
j
Primul termen fiind constant, minimizarea lui J implic maximizarea celui de-al doilea termen
I(u)= x , u u x x u
p
j 1
j T
(15)
j 1
40
Cum
u 1,
I(u)= u
x x u
p
j T
(16)
j 1
j
j
[S]= x x
j 1
(17)
este ptratic de ordinul d, fiind matricea de mprtiere a norului pentru cazul cnd media norului este 0 (datele
au fost normalizate).
Valorile extreme ale formei ptratice
I(u)=[u] T[S][u]
(18)
pe vectorii sferei unitate corespund vectorilor proprii ai matricei S. Direcia pentru care I(u) are valoare maxim,
este dat de vectorul propriu corespunztor celei mai mari valori proprii ale lui S.
Fie u1,u2,...,ud, vectorii proprii ai lui S, luai n ordine descresctoare a valorilor proprii corespunztoare.
Aceti vectorii proprii indic direciile de alungire ale norului i din acest motiv se numesc direciile principale
sau componentele principale ale norului. Cea mai accentuat extindere a norului este n direcia lui u1 (vectorul
propriu principal). Revenind la norul iniial (datele nenormalizate), rezult c norul X este format din puncte
grupate n jurul liniilor L1, L2, ... ,Ld, care trec prin centrul de greutate al norului i sunt paralele cu vectorii u1, u2,
..., ud (deoarece vectorii proprii corespunztori la valori proprii distincte sunt ortogonali, rezult c direciile
principale sunt ortogonale).
Algoritm pentru determinarea componentelor pricipale
P1. Se standardizeaz datele efectund transformarea
1 p j
xj=xj-m unde m= x
p j 1
P2. Se determin vectorii proprii ai matricei de mprtiere
p
'j
'j
[S]= x x
j 1
[A] [S][A]=
-1
41
42
1
i , unde i este valoarea proprie corespunztoare
p
Capitol 5
5. Partiii nuanate fuzzy
5.1. Concepte
Noiunea de mulime nuanat, introdus la mijlocul anilor 60 de ctre L. A. Zadeh, reprezint o
generalizare natural a conceptului clasic de mulime. Ideea de la care s-a plecat a fost c exist multe clase de
obiecte care nu au granie nete.
Astfel de clase pot fi descrise utiliznd mulimi nuanate, care admit grade de aparen situate ntre 0
(neapartanen total) i unul (aparen total).
Definiie
O mulime fuzzy (nuanat) peste o mulime X nevid este o aplicaie
A : X[0,1]
Caracteristici
1. A(x) desemneaz gradul de aparen a lui x la mulimea nuanat A. Se poate interpreta A(x) ca fiind gradul
de plauzibilitate al afirmaiei " x este un element din A".
2. Complementarea unei mulimi nuanate A(x) se definete prin
A( x ) 1 A( x )
A A
i
i 1
j 1
j =1,,n-1
n
Aceste mulimi reprezint o partiie finit nuanat a lui C din L(X) dac C= Ai . Fiecare Ai se va numi atom
i 1
al partiiei.
5. Dac A este o mulime fuzzy peste X i t[0,1] atunci
At={xA / A(x)t}
se numete mulime de nivel t a lui A.
a
6. Dac y este din X i a este un numr cu a[0,1] atunci mulimea fuzzy f y definit prin
a daca x y
f ya
0 daca x y
se numete punct fuzzy(nuanat). Un punct fuzzy aparine unei mulimi fuzzy A dac i numai dac
f ya ( x) A x pentru orice x din X.
7. Dac M i N sunt dou mulimi clasice din spaiul metric, distana dintre ele este
D(M, N) = inf(x, y)
xM , yN
Dac A i B sunt dou mulimi fuzzy, A, BL(x) distana dintre acestea este dat de:
1
t
t
D(A, B)= D ( A , B )dt
0
a
Distana dintre un punct fuzzy f y i mulimea A este
43
d f ya , A D ( y, At )dt
0
b
Distana dintre dou puncte fuzzy f xa i f y este
d f xa , f yb
min( a , b )
D({x},{ y})
0
sau
d f xa , f yb min(a, b) d ( x, y )
d A supd ( f xa , f yb ) | f xa , f yb A
(5.1)
(5.2)
Si se interpreteaza drept o masura a inadecvarii reprezentarii punctului x prin prototipul L i .
Deoarece L i este unul din punctele lui X (chiar daca este artificial construit) este plauzibil sa
presupunem ca dintre toate punctele multimi X , L i are mai mare grad de apartenenta la clasa fuzzy Ai pe
care o reprezinta. Deci:
Ai ( Li ) max Ai ( x )
(5.3)
y
Rezulta ca:
j
d i ( x , Li ) min( Ai ( x ), Ai ( L ))d ( x j , L ) Ai ( x j ) d ( x j , Li )
Di ( x , Li ) d i2 ( x j , L ) ( Ai ( x j )) 2 d 2 ( x j , Li )
(5.4)
D (x
, Li )
(5.5)
( A (x
i
)) 2 d 2 ( x j , Li )
(5.6)
Important
-O partitie fuzzy { A1 , A 2 ,..., A n } se poate reprezenta printr-un matrice A cu n linii si p coloane, unde:
Aij Ai ( x j ) [0,1] i 1, n , j 1, p
Vom nota cu M np multimea acestor matrici cu elemente in [0,1] si suma elementelor fiecarei coloane
egale cu 1.
-Inadecvarea reprezentarii partitiei fuzzy P { A1 , A 2 ,..., A n } prin L {L 1 , L2 ,..., L n } se poate
exprima cu ajutorul unei functii:
y: M np x dn
de forma:
y ( P, L )
I ( Ai , Li )
j 1
( A ( x
i 1
)) 2 d 2 ( x j , Li )
(5.7).
J P, L min
P M , L
np
(5.8)
dn
Intuitiv, a minimiza J inseamna a cere grade de apartenenta mici la A i pentru acele puncte din X pentru care
disimilaritatea dintre punctul respectiv si prototipul clasei este mare. Grade de apartenenta mari sunt reclamate
de punctele pentru care disimilaritatea este mica.
Deoarece nu exista o metoda pentru rezolvarea exacta a lui (5.8) se recurge la o metoda aproximativa pentru
determinarea unei solutii locale. Problema se rezolva folosind o metoda iterativa in care J se minimizeaza
succesiv in raport cu P, respectiv L. Pornind de la o partitie P1 arbitrara se construieste o reprezentare L1 pentru
care functia J(P1, ) are valoare minima. Se cauta apoi o noua partitie P2 care sa minimizeze functia J( , L 1 ).
Se obtine un sir de partitii fuzzy si un sir de reprezentari ale acestor partitii. Procesul se opreste cand norma
diferentei dintre doua partitii succesive este suficient de mica.
Teorema
45
d 2 x j , Lk
i 1
JP :,
nd
Minimul functiei
Ai x j
n
Li
j 1
n
Ai x
j 1
1
n
i
este realizata de L L ,..., L , L d cu:
xj
i 1,..., n
(5.10)
Ai x j 1
n
j 1
j 1,..., p
A i x j 0,1,
unde
(5.11)
i 1, n;
j 1, p
A x x
n
Li
j 1
A x
n
i 1,..., n
j 1
d x
k 1
P4. Daca
,L
Comentarii
O valoare adecvata pentru este 10-5.
Cazul d x j , L i 0 este putin probabil sa apara. In aceasta situatie vom pune:
1 pentru k i
y
A x
K
0 pentru k i
de fidel asupra structurii datelor. Practic, aceast problem se poate rezolva atand fiecare punct x j
clasei la care x j are gradul de apartenen maxim . Cu alte cuvinte, dac P A1 A n este o partiie
np
Pn A 0,1 Aij , 1, j 1, , p; Aij 0, i 1, n
(2)
i 1
j 1
p
n
np
Pf n A 0,1 Aij 1, j 1, p; Aij 0, i 1, n (3)
i 1
j 1
unde Pn , Pf n definesc mulimea matricilor clasice nedegenerate i --------- Se pune problema unei
caracterizri complete a mulimii Pn . Aceast caracterizare ne-ar furniza o condiie necesar i
suficient pe care trebuie s o ndeplineasc o partiie fuzzy pentru a se putea scrie sub forma unei
combinaii convexe de partiii clasice nedegenerate.
Teorem
Dac A Aij i 1,n Pfn atunci urm toarele condiii sunt echivalente
j
j 1, p
(1) A convPn
(2)
A 1, i 1,, n
j 1
ij
s 1
s 1
1
k
Dac A convPn ,atunci exist ai , , a k 0, a s 1, i A , , A Pn astfel nct A a s A .
s
A 0
j 1
s
ij
i deci:
p
A
j 1
s
ij
1, i 1, n
s 1
j 1
s 1
j 1 s 1
Concluzie
Partiia P A1 , , An admite aadar o descompunere convex nedegenerat dac i numai dac
A x 1 pentru oricare i 1, , n .
p
j 1
Exemplu
Considerm partiia fuzzy reprezentat prin matricea
47
1
A 0.3 0
0
1
0.1 0
1
0
1
0
0
0
1
0
0
1
0
1
0
0
0
0 0.2 0
1
1
1
1
0 0.1 0
0
0
0
1
0
1
0
0
0
1
0
0
0
1 0.2 0
1
0
1
1
0 0,1 0
0
0
0
0
1
0
1
0
1
0
0
1
0
0
0
0
1
0
0
1
0
1
0
Rezult c A este aproximat prin partiia clasic avnd coeficientul 0.3.Aceast partiie este:
1
3
2
4
A1 x , A 2 x , A 3 x , x
48