Documente Academic
Documente Profesional
Documente Cultură
20
15
10
5
5 0 5 10 15
Calcul neuronal si evolutiv - curs 4 4
Problematica grupării datelor
Exemplu: date bidimensionale generate artificial (distribuirea în
categorii)
Obs: datele generate conform cu modelul corespunzator unei categorii
pot fi în regiunea corespunzatoare celeilalte categorii (ex: punctul
albastru din zona datelor mov) => identificarea grupurilor este o
problema dificila. 15
10
5
5 0 5 10 15
Calcul neuronal si evolutiv - curs 4 5
Problematica grupării datelor
Exemplu: segmentarea imaginilor = identificarea regiunilor omogene
din imagine
• Partiționale:
– Conduc la o partiționare a datelor în clase disjuncte sau parțial
suprapuse
– Fiecare clasă este caracterizată prin unul sau mai multe prototipuri
(centrii sau centre)
• Ierarhice:
– Conduc la o ierarhie de partiționări ce poate fi vizualizată sub forma
unei structuri arborescente numită dendrogramă
6 9 10 15
5 7 8 13 14
4 6
3 5 12
2 3 4 11
1 1 2
0
1 3 5 4 2 7 9 10 8 6 13 14 15 12 11 0 2 4 6 8 10
Clase de algoritmi:
• numărul claselor (unităților de ieșire) este cunoscut
– Algoritm de tipul WTA – “ the Winner Takes All”
Specificul algoritmilor:
• se ajustează doar ponderile unităților învingătoare
• rata de învățare este descrescătoare (pentru a induce
stabilizarea valorilor ponderilor)
Calcul neuronal si evolutiv - curs 4 13
Gruparea datelor cu rețele neuronale
Exemplu: algoritm de tip WTA
∞ ∞
limη (t ) = 0,
t →∞
∑η (t ) = ∞,
t =1
∑ (t ) < ∞
η 2
t =1
0.4
0.3
eta(t)=1/ln(t)
0.2
0.1
eta(t)=1/t^(3/4)
eta(t)=1/t
Calcul neuronal si evolutiv - curs 4 16
Gruparea datelor cu rețele neuronale
Observații:
• Problema unităților inactive (moarte): unități care nu devin
niciodată învingătoare
Solutii:
• Inițializarea prototipurilor cu vectori din setul de antrenare
d ( X ,W k * ) − θ k * ≤ d ( X ,W k ) − θ k
θ k − prag care este invers proportional cu
frecventa situatiilor in care unitatea este invingatoare
Variante:
• Normalizarea datelor din setul de antrenare se face înainte de
inițierea antrenării
• Adaptabilitate
– Capacitatea sistemului de a asimila noi date și de a
identifica noi clustere (impune număr variabil de clustere)
• Stabilitate
– Capacitatea sistemului de a conserva structura de clustere
astfel încât pe parcursul procesului de adaptare sistemul să
nu își schimbe radical răspunsul pentru o anumită dată de
intrare
0.8
0.6
0.4
0.2
Algoritmul LVQ:
1. Inițializare prototipuri aplicând un algoritm de tip WTA asupra
setului {X1,…,XL}
2. Identificarea claselor pe criteriul distantei minime si stabilirea
indicatorului de clasa folosind etichetele d1,…dL: pentru fiecare
clasa se alege eticheta cea mai frecventă
FOR l := 1, L DO
determina k * cu : d(X l ,W k* ) ≤ d(X l ,W k )
IF c(k*) = d l THEN W k* := W k* + η (t )( X l − W k* )
ELSE W k* := W k* − η (t )( X l − W k* )
ENDIF
ENDFOR
• Mapare topologică
– Date de intrare similare vor face parte fie din aceeași clasă fie din
clase vecine
– Gruparea datelor
• Tipuri de grile:
Dpdv al dimensiunii:
- Unidimensionale
- Bidimensionale
- Tridimensionale
Dpdv al structurii:
- Pătratice
- Hexagonale
Calcul neuronal si evolutiv - -curs 4 Arbitrare (graf planar)
31
Rețele Kohonen
• Structura de vecinătăți asociată nivelului de unități de ieșire:
– Fiecărei unități funcționale (p) i se asociază un vector de
poziție (rp)
– In cazul grilelor cu n dimensiuni acest vector conține n
componente
– Se alege o distanță pe domeniul vectorilor de poziție
∑ (r − r )
n
d1 (rp , rq ) = i =1
i
p q
i 2
(distanta euclidiana)
(r , r ) = ∑ | r − r |
n i i
d2 p q i =1 p q (distanta Manhattan)
d 3 (rp , rq ) = max i =1,n | rpi − rqi |
Vs ( p ) = {q | d (rp , rq ) ≤ s}
• Antrenare:
– De tip nesupervizat
– Set de antrenare: {X1,…,XL}
– Specific: similară cu antrenarea de tip WTA însă o dată cu
ajustarea ponderilor unității învingătoare se ajustează și
ponderile unităților vecine
Grila 2D
Grila 1D
Calcul neuronal si evolutiv - curs 4 39
Rețele Kohonen
• Ilustrarea mapării topologice
– date de intrare bidimensionale generate uniform aleator în
interiorul unei coroane circulare
– Intrucât mai multe unități pot să tindă către același oraș, numărul
unităților trebuie să fie mai mare (de două, trei ori) decât numărul
orașelor
Calcul neuronal si evolutiv - curs 4 41
Rețele Kohonen
• Problema comis voiajorului:
Ponderi ale
unităților
oras a) Configurația
inițială
b) După 1000
iterații
c) După 2000
iterații
Y=WX
X = vector cu N componente
Y = vector cu M componente
W = matrice cu M linii și N coloane
Calcul neuronal si evolutiv - curs 4 45
Analiza componentelor principale
• Ilustrare: N=2, M=1
T:RN->RM si S:RM->RN
X --> Y --> X’
T S
• N unități de intrare X Y
• M unități de ieșire (liniare)
• Conectivitate totala între nivele W
Funcționare:
• Extragerea componentelor
principale
X’ Y
Y=WX
• Reconstruirea datelor inițiale WT
X’=WTY
• Nesupervizată X’ Y
• Set: {X1,X2,…} (antrenarea este
incrementala, rețeaua se ajustează WT
pe măsură ce primește noi date de
intrare)
Set de antrenare:
{(X1,X1), (X2,X2),….} Y
X’
Eroare pătratică la reconstruire WT
(pentru un exemplu):
∑ (x − ∑ w
1
= j ij yi )
2
wij := wij + η ⋅ ( x j − x' ) yi
2 j =1 i =1
M
wij := wij + η ⋅ ( x j − ∑w
k =1
kj y k ) yi
Set de antrenare:
{(X1,X1), (X2,X2),….} Y
X’
WT
Initializari : wij : = rand( − 1,1 ); t := 1
REPEAT // pt. fiecare exemplu X Obs: liniile matricii W tind către
N
vectorii proprii ai matricii de
yi = ∑j =1
wij x j , i = 1..M covarianță corespunzători
celor mai mari M valori
M
∑
proprii însă nu există
wij : = wij + η ⋅ (x j − wkj y k )yi , i = 1..M, j = 1..N corespondență directă între
k =1
numărul unității și numărul
t: = t + 1 de ordine al valorii proprii
UNTIL t > t max
∑ w x , i = 1..M
Specific algoritm Sanger
yi = ij j
j =1
i
wij : = wij + η ⋅ (x j − ∑w
k =1
kj y k )yi , i = 1..M, j = 1..N
t: = t + 1
UNTIL t > t max
Calcul neuronal si evolutiv - curs 4 55