Sunteți pe pagina 1din 9

Curs 7

Regula de instruire Hebb supervizata. Retele de tip Memorie


Asociativa.
Regula Hebb a fost una dintre primele legi de instruire a rețelei neuronale. A fost
propusa de Donald Hebb în 1949 ca posibil mecanism pentru modificari sinaptice
ale creierului și de atunci a fost folosită pentru instruirea rețelelor neuronale
artificiale.
Cea mai faimoasă idee cuprinsă în cartea Organizarea comportamentului a fost
postulat care a devenit cunoscut sub numele de Învățarea Hebbiana:
„Când un axon al celulei A este suficient de aproape pentru a excita o celulă B și
în mod repetat sau persistent participă în mod constant la activarea acesteia, are
loc un proces de creștere sau schimbări metabolice într-una sau ambele celule,
astfel încât eficiența lui A, ca una dintre celulele care activeaza B, este mărita. ”
Acest postulat a sugerat un mecanism fizic pentru învățarea la nivel celular. Deși
Hebb nu a pretins niciodată că are dovezi fiziologice ferme pentru teoria sa,
cercetările ulterioare au arătat că unele celule prezintă Învăţare Hebbiana.

Asociator Liniar

Legea instruirii Hebb poate fi utilizată în combinație cu o varietate de arhitecturi


de rețele neuronale. Se va folosi o arhitectură foarte simplă pentru prezentarea
inițiala a învățării Hebbiane. În acest fel focusul va fi asupra legii de instruire mai
degrabă decât asupra arhitecturii. Rețeaua folosita este un asociator liniar. Această
rețea a fost introdusă in mod independent de catre James Anderson și Teuvo
Kohonen.

Vectorul de iesire este determinat din vectorul de intrare conform:


sau

Asociatorul liniar este un exemplu de tip de retea neuronala numita memorie


asociativa (associative memory). Sarcina unuei memorii asociative este sa invete
Q perechi de vectori prototip de intrare/iesire:

Daca reteaua primeste o intrare:

Trebuie sa produca iesirea:

q = 1, 2, .. , Q

In plus daca intrarea este putin schimbata:

Atunci si iesirea trebuie sa fie schimbata foarte putin:

Regula Hebb

Pentru a interpreta postulatul lui Hebb matematic, astfel încât să poata folosi pentru
a instrui matricea de ponderi a asociatorului liniar acesta se poate reformula: Dacă
doi neuroni de pe oricare parte ale unei sinapse sunt activati simultan, puterea
sinapsei va crește. Conexiunea (sinapsa) dintre intrare și ieșire este modelata prin
pondere. Prin urmare, postulatul lui Hebb ar presupune că dacă un pozitiv produce
un pozitiv, atunci ar trebui să crească. Acest lucru sugerează că interpretarea
matematică a postulatului ar putea fi:
unde pjq este al j-lea element al vectorului de intrare pq ;aiq este al i-lea element al
iesirii retelei cand al q-lea vector de intrare este prezentat retelei; si α este o
constanta pozitiva, numita rata de instruire (learning rate). Aceasta ecuatie exprima
schimbarea in ponderea wij ca fiind proportionala cu produsul functiilor
activitatilor pe oricare parte a sinapsei. Scrierea va fi simplificata catre urmatoarea
forma:

De reținut că această expresie extinde de fapt postulatul lui Hebb dincolo


de interpretarea sa strictă. Modificarea ponderii este proporțională cu un produs al
activității de pe ambele părți ale sinapsei. Prin urmare, nu numai că se crește
ponderea atunci când ambele pj si ai sunt pozitive, dar se crește ponderea și atunci
când ambele sunt negative. În plus, această implementare a regulii Hebb va scădea
ponderea ori de câte ori pj si ai au semn opus.
Regula Hebb definită anterior este o regulă de învățare nesupravegheată. Da, nu
necesită informații referitoare la ieșirea țintă. In acest capitol suntem interesați să
folosim regula Hebb pentru învățarea supravegheată, în care ieșirea țintă este
cunoscută pentru fiecare vector de intrare. Pentru regula Hebb supravegheata se
înlocuieste ieșirea țintă cu ieșirea efectivă. În acest fel, se transmite algoritmului ce
ar trebui să facă rețeaua, mai degrabă decât ceea ce face în prezent.
Ecuația rezultată este:

unde tiq este al i-lea element din al q-lea vector tinta tq. (Rata de instruire α a fost
setata la 1 pentru simplitate)
Ecuatia anterioara poate fi rescrisa in notatie vectoriala:

Daca se presupune ca matricea ponderilor este initializata la zero si apoi fiecare


pereche din cele Q de intrare/iesire sunt aplicate o data, se poate scrie

Aceasta poate fi reprezentata in forma matriciala:


unde

Analiza Performantei

Pentru analiza performantei instruirii de tip Hebbian pentru asociatorul liniar, se va


considera cazul in care vectorii pq sunt ortonormali (ortogonali si unitari). Daca pk
este o intrare in retea atunci iesirea poate fi calculata:

Si pentru ca pq sunt ortonormali

Rezulta ca:

Iesirea retelei este egala cu iesirea tinta. Asta inseamna ca daca vectorii de intrare
prototip sunt ortonormali, regula Hebb va produce iesirea corecta pentru fiecare
intrare.
Daca vectorii prototip nu sunt ortogonali dar de dimensiune unitara ecuatia devine:
Deoarece vectorii nu sunt ortogonali, rețeaua nu va produce ieșirea corectă.
Mărimea erorii va depinde de corelația dintre formele de intrare prototip. De
exemplu, să presupunem că vectorii de intrare / ieșire prototip sunt

(De verificat daca cei doi vectori de intrare sunt ortonormali.)


Matricea ponderilor va fi:

Daca se testeaza aceasta matrice a ponderilor pe cele doua prototipuri se va gasi:

Iesirile retelei sunt egale cu tintele dorite.

Regula Pseudoinversei

Cand formele prototip de intrare nu sunt ortogonale regula lui Hebb produce unele
erori. Exista mai multe abordari de reducere a acestor erori, cea mai utilizata fiind
regula matricii pseudoinverse. Tinand cont ca sarcina asociatorului liniar a fost sa
produca o iesire tq pentru intrarea pq, adica:
Daca nu este posibil sa se aleaga ponderile astfel incat aceste ecuatii sa fie
satisfacute exact, se incearca sa se satisfaca aproximativ. O abordare va fi sa se
aleaga o matrice de ponderi care minimizeaza urmatoare functie obiectiv (practic
suma patratelor erorilor generate de ponderile aproximate):

Daca vectorii de intrare prototip sunt ortonormali si folosim regula lui Hebb pentru
gasirea lui W, F(W) va fi zero.
A fost demonstrat ca matricea de ponderi care minimizeaza F (W) este data
de regula pseudoinversei:

Unde P+ este pseudoinversa Moore-Penrose a matricii intrarilor P. Pseudoinversa


unei matrici reale este unica matrice care satisface:

Cand numarul R de randuri al lui P este mai mare decat numarul de coloane Q al
lui P si coloanele lui P sunt independente, pseudoinversa poate fi calculata cu
formula:

Memoria Autoasociativa - Aplicatii


Pentru exemplificarea utilizarii regulii lui Hebb intr-o problema practica foarte
simplificata de recunoastera a formelor. Pentru aceasta problema se va folosi un tip
de memorie asociativa numita Memoria autoasociativa. In aceste tip de retea
vectorul de iesire dorit este egal cu vectorul de intrare. Se va folosi o memeorie
autoasociativa pentru a stoca un set de forme si sa fie recunoscute aceste forme
cand sunt introduse ca intrari chiar daca sunt introduse cu erori.
Formele care se doresc stocate sunt prezentate in figurile urmatoare.

Pentru ca se va proiecta o memorie autoasociativa, aceste forme reprezinta vectorii


de intrare si iesirile tinta. Formele reprezinta numerele 0, 1 si 2 afisate printr-un
panou de afisaj cu rezolutia 6X5. Pentru convertirea acestor numere in vectori de
intrare care sa devina formele prototip pentru retea se va asocia -1 patratelelor albe
si 1 celor albastre, iar ordinea de parcurgere o stabilim pe coloane.
De exemplu prima forma prototip va fi:

Vectorul p1 corespunde cifrei 0, p2 cifrei 1 si p3 cifrei 2. Folosind regula lui Hebb


se calculeaza matricea ponderilor:

(De retinut ca pq inlocuieste tq pentru ca este memorie autoasociativa.)


Deoarece exista doar doua valori posibile pentru elementele vectorilor prototip se
va modifica asociatorul liniar astfel incat iesirile sa fie doar -1 si 1. Functia de
activare liniara se va inlocui cu functia treapta unitate simetrica rezultand reteaua:

Retea Autoasociativa pentru Recunoasterea cifrelor


Pentru verificarea functionarii retelei se vor introduce la intrare versiuni modificate
ale formelor prototip si se va evalua iesirea. In primul test se vor prezenta formele
prototip cu jumatatea de jos ascunsa si se observa ca reteaua recunoaste (produce la
iesire) forma corecta.

Recuperarea unor forme acoperite pe 50% din suprafata.

Daca se acopera doua treimi din formele prototip numai cifra 1 este recunoscuta
corect, iar celelalte produc rezultate care nu corespund niciunui din formele
prototip, ceea ce este uzual pentru memoriile autoasociative si se cauta solutii de
imbunatatire prin cresterea ratei de recunoastere inclusiv prin memorii asociative
recurente.

Recuperarea unor forme acoperite pe 67% din suprafata.

In ultimul test daca se prezinta la intrarea memoriei autoasociative versiuni cu


zgomot adaugat formelor prototip (prin schimbarea aleatoare a sapte elemente ale
ficarei forme) se observa ca toate formele au fost corect recuperate.

Recuperarea formelor afectate de zgomot

Variatii ale instruirii Hebbiene

Exista un numar de variatii a regulii Hebb de baza. Practic multe legi de instruire
se bazeaza pe regula lui Hebb. Una din problemele regulii Hebb este ca poate
produce matrici de ponderi cu elemente foarte mari daca sunt foarte multe forme
prototip in setul de instruire. Pornind de la regula de baza:

Un parametru pozitiv α, numit rata de instruire (learning rate), poate fi folosit


pentru a limita nivelul de crestere al elementelor matricii ponderilor daca aceasta
rata de instruire este subunitara ca in:

Se poate de asemenea adauga un termen de penalizare (decay term), astfel incat


regula de instruire se comporta ca un filtru de netezire, retinand cele mai recente
intrari mult mai clar:

unde γ este o constanta pozitiva subunitara. Cu cat γ se apropie de zero, legea de


instruire devine regula standard. Cu cat γ se apropie de 1, legea de instruire “uita”
mai rapid vechile intrari si “isi aminteste” numai cele mai recente forme, ceea ce
limiteaza cresterea nelimitata a matricii de ponderi.
Daca se modifica al doilea termen al ecuatiei prin inlocuirea iesirii dorite tq cu
diferenta intre iesirea dorita si iesirea curenta se va obtine o alta regula de instruire:

Aceasta este cunoscută sub numele de regula delta, deoarece folosește diferența
dintre ieșirea dorită și efectivă. Este, de asemenea, cunoscuta sub numele de
algoritmul Widrow-Hoff, după cercetătorii care l-au inventat. Regula delta
ajustează ponderile pentru a minimiza eroarea medie pătrată. Pentru acest motiv va
produce aceleași rezultate ca și regula pseudoinversei, care minimizează suma
pătratelor erorilor. Avantajul regulei delta este că poate actualiza ponderile după
fiecare forma de intrare noua aplicata, în timp ce regula pseudoinversei calculează
ponderile într-un pas, după ce toate perechile de intrare / iesirețintă sunt cunoscute.
Această actualizare secvențială permite regulii delta să se adapteze la un mediu în
schimbare.

S-ar putea să vă placă și