Sunteți pe pagina 1din 33

 REŢELE NEURALE

 Modelul general al unei reţele neuronale

 În cadrul inteligenţei artificiale problemele de învăţare ocupă un loc


aparte.
 Aceste preocupări se constituie într-o direcţie distinctă de cercetare,
cea a maşinilor autoinstruibile (“machine learning”).

 Învăţarea automată reprezintă studiul modelelor de sisteme capabile


să-şi îmbunătăţească performanţele în mod semnificativ, utilizând o
mulţime de date de instruire.

 O reţea neuronală constă dintr-o mulţime de elemente de prelucrare


(neuroni, elemente cognitive sau noduri ale reţelei) înalt
interconectate.
Avantajul acestei abordări: pragul poate fi ajustat împreună cu
celelalte ponderi.

Forma funcţiei de răspuns f depinde de modelul de reţea


neuronală studiat.

Funcţia f se mai numeşte funcţie neurală, funcţie de ieşire


sau funcţie de activare a neuronului.
 Poate un singur neuron sa invete o sarcina?

 1958 Frank Rosenblatt – perceptronul – cea mai


simpla ANN
 Sarcina perceptronului este aceea de a clasifica intrarile
(stimulii aplicati x1, x2, …) in una din cele doua clase A1
si A2 .
 Imparte hiperplanul in doua regiuni de decizie.
Hiperplanul e definit de functia liniara:
 Cum invata perceptronul sarcinile de clasificare?
 Facand mici ajustari ale ponderilor pentru a reduce diferenta
dintre iesirile actuale si cele dorite prin iteratii.

 Eroarea:

 OBS:
 Daca e(p) e pozitiva trebuie marita iesirea Y(p).
 Daca e(p) e negativa trebuie micsorata iesirea Y(p).
 Daca xi (p) e pozitiva, o crestere a ponderii ei wi (p) tinde sa creasca
Y(p).
 Daca xi (p) e negativa, o crestere a ponderii ei wi (p) tinde sa scada
Y(p).
 Se poate stabili urmatoarea regula de invatare a
perceptronului:

 unde α este rata de invatare – o constanta pozitiva subunitara

 Regula a fost propusa de Rosenblatt – 1960

 Folosind aceasta regula se poate obtine algoritmul de invatare pentru


clasificare.
 Pasul 1 INITIALIZARE w1, …, wn si θ in intervalul [-0,5 , 0,5]

 Pasul 2 ACTIVARE

 Pasul 3 INVATAREA PONDERILOR

 Unde este corectia ponderii la iteratia p.


 Corectia ponderii se calculeaza cu regula delta.

 Pasul 4 ITERATIA se creste iteratia p cu unu si se trece la pasul 2


 Se poate antrena un perceptron pentru a realiza o operatie
logica SI, SAU, SAU-EXCLUSIV?
 Reţelele neurale transformă o anumită configuraţie de
intrare într-o configuraţie de ieşire.

 Ieşirile reţelei pot corespunde unei acţiuni pe care reţeaua


trebuie s-o realizeze. Aceasta poate fi, de exemplu, o
problemă de control.

 De asemenea, ieşirile reţelei pot reprezenta o clasificare a


obiectelor prezentate la intrare.

 În general, ieşirea poate fi orice transformare a spaţiului de


intrare, deci funcţionarea reţelei reprezintă o aplicaţie
(proiecţie, transformare) a spaţiului vectorilor de intrare în
spaţiul vectorilor de ieşire.
 Prin instruire sau învăţare vom înţelege o metodă prin care
este construită o astfel de aplicaţie.

 În mod obişnuit instruirea presupune că se furnizează reţelei


suficient de multe exemple de perechi intrare-ieşire.

 Folosind aceste exemple reţeaua este forţată să se adapteze


în sensul generalizării unei aplicaţii de intrare-ieşire.

 Această aplicaţie îi va permite reţelei să trateze corect şi


valori de intrare care ni i-au mai fost prezentate niciodată.
 Se va simula o retea neuronală (vezi Figura )
care efectuează clasificarea în acord cu
regulile „AND” (vezi tabelul) „OR” sau
„XOR”. Vom folosi o reţea care are trei
intrări neuronale – doi neuroni pentru datele
de intrare şi al treilea neuron cunoscut şi sub
numele de neuron bias. Acesta întotdeauna
arde (adică este constant).
 6.

 Acum toate modelele dau răspunsul corect.

S-ar putea să vă placă și