Sunteți pe pagina 1din 5

CRIV MADALINA ANAMARIA,GRUPA 1073,MASTER CEC , AN I

2.4 NVAREA CTIGTORUL IA TOTUL

Clasificarea nvrii nesupravegheat se bazeaz pe gruparea datelor de intrare. Nici o


cunoatere a priori nu se presupune a fi disponibil cu privire la aderarea unui input ntr-o
anumit clas. Mai degrab, detectarea treptat a caracteristicile i o istorie de pregtire vor fi
folosite pentru a ajuta reeaua n definirea claselor i gsirea posibilelor granie dintre ele.
Clusterizarea este considerat a fi gruparea obiectelor similare i separarea celor diferite .
Vom discuta reea lui Kohonen, care clasific vectori de intrare ntr-un numr specificat
de m categorii , n funcie de numarul de clustere detectat n setul de antrenare.
{

,,

Algoritmul de nvare trateaz setul de m vectori ca vectori variabile care trebuie s fie
nvate. nainte de nvare, este necesar normalizarea tuturor vectorilor .

Figura 2.18 Reteaua de invatare castigatorul ia totul


Criteriul de ajustare a greutatii pentru acest mod de antrenare este selectia lui

astfel incat:

Indexul r denota numarul neuronului castigator corespunzator vectorului


cea mai apropiata aproximare al inputului curent x. Folosind egalitatea

, care este

putem deduce c ,cutarea minimului distanelor m corespunde cu gsirea maximului printre


produsele m scalare

Luand in considerare ca || || = 1, {1, ,


altceva decat proiectia lui x pe
.

} produsul scalar <

, x> este nimic

Este clar ca cu cat este mai apropiat vectorul de x cu atat este mai mare proiectia lui x pe
. Notam cu < , x > valoarea de activare a neuronului castigator care are cea mai mare
valoare
, i=1,...,m.

Figura 2.19 castigatorul este


Cnd utilizm produsul scalar metric de similitudine, vectorii sinaptici de greutate
trebuie s fie modificai n mod corespunztor, astfel nct acetia s devin mai asemntoari
cu vectorul de intrare curent.
Cu criteriu de similitudine fiind cos ( , x), greutile lungimilor vectoriale ar trebui s
fie identice pentru aceast abordare de antrenament. Cu toate acestea, direciile lor ar trebui
s fie modificate.
Intuitiv, este clar c un vector cu o pondere foarte mare de timp ar putea duce valori
foarte mari ale neuronilor de ieire, chiar dac ar exista un unghi mare ntre vectorul de
greutate i model. Acest lucru explic nevoia de normalizare a greutii.
Dup ce neuronul ctigtor a fost identificat i s-a declarat un ctigtor, greutatea sa
trebuie s fie ajustata n aa fel nct distana || x- || sa fie redus n etapa de pregtire
actuala.

Astfel, || x- || trebuie redus, de preferin, de-a lungul direciei gradientului n spatiul


greutatii
,,
.

Pare rezonabil sa recompensam ponderile neuronului ctigtor, cu o cretere a greutatii n


direcia gradientului negativ, adica n direcia x- .Astfel, avem
(2.1)
Cand este o constanta de invatare mica selectata euristic, de obicei intre 0.1 si 0.7 . Restul
greutatilor vectorilor raman neafectate.
Sumar 2.4.1. Algoritmul de invatare Kohonen poate fi sumarizat in urmatorii pasi:

Pasul 1

Pasul 2
Pasul 3

(r este neuronul castigator)


(normalizarea)
(pierzatorii sunt neafectati)

Din identitatea:

Rezult c vectorul greutate actualizat este o combinaie liniar convex a greutatii vechilor
vectori i a vectorilor model.

Figura 2.20 Ajustare greutatii neuronului castigator.


La finalul procesului de formare ,greutatea finala ale vectorilor indica centrul de
greutate al claselor.
Reeaua va fi antrenata numai n cazul n care clasele / grupurile de modele sunt liniar
separabile de alte clase de hiperplane care trec prin origine.
Pentru a asigura separabilitatea clusterelor cu un numr necunoscut a priori de clustere
de formare, antrenarea nesupravegheata poate fi realizat cu un numr excesiv de neuroni,
care ofer o anumit marj de siguran a separabilitatii.

Figura 2.21 Greutatea finala a vectorilor este centrul de greutate al claselor

n timpul instruirii, unii neuroni sunt susceptibili de a nu dezvolta greutatea lor, iar n
cazul n care greutatea lor schimb haotic, ei nu vor fi considerati ca un indicator ai
clusterelor.
Prin urmare, astfel de greuti pot fi omise n timpul fazei de rechemare, deoarece
producia lor nu ofer nici o informaie esenial asupra clusterizarii. Greutile neuronilor
rmasi ar trebui s se stabileasc la valori care sunt indicativele clusterelor.
O alta extensie a nvarii este posibila penntru aceast reea atunci cnd clasa
adecvata pentru unele modele se cunoate a priori . Dei acest lucru nseamn c ,codificarea
datelor n greuti devin apoi supravegheate, aceste informaii accelereaz procesul de
nvare n mod semnificativ. Greutatile ajustate sunt transformate in modul supervizat ca in
(2.1).

si doar pentru o clasificare corecta. Pentru rspunsurile grupate necorespunztoar ale reelei,
ajustarea greutatii poart semnul opus fa de (2.2).
Adic, > 0 pentru rspunsurile corecte nod, i < 0 n caz contrar, n modul de nvare
supervizat pentru stratul Kohonen. O alt modificare a ctigtorului ia totul este aceea c
atat ponderile ctigtorilor "i perdanilor" sunt ajustate proporional cu nivelul lor de
rspunsuri.
Aceasta se numete nvare competitiv indiscreta i ofer o nvare mai subtila n cazul
n care grupurile ar putea fi greu de distins.

S-ar putea să vă placă și