Documente Academic
Documente Profesional
Documente Cultură
Retele Neuronale
Retele Neuronale
2 REELE NEURONALE
(Sursa: Prof. Dan Glea, Florin Leon, Curs de inteligen artificial, Universitatea
Tehnic Gh. Asachi Iai, Facultatea de Automatic i Calculatoare)
Deci cea mai important caracteristic a reelelor neuronale este abilitatea de a nva prin
intermediul mediului nconjurtor, i prin acesta s i mbunteasc performanele,
creterea performanelor avnd loc n timp i conform unor reguli prestabilite. nvarea
se realizeaz printr-un proces iterativ de ajustri aplicate conexiunilor i pragurilor
sinaptice. Astfel, reeaua devine mai inteligent dup fiecare iteraie a procesului de
nvare.
n cazul reelelor neuronale, nvarea este definit ca un proces prin care parametrii
variabili ai unei reele neuronale se adapteaz printr-un proces continuu de stimulare din
partea mediului n care este inclus. Tipul de nvare este determinat de modul n care au
loc schimbrile parametrilor.
unde xi intrrile
wi ponderile sinaptice
f funcia de activare
y ieirea
n
y f
w x
i 1
i i
Ponderea sinaptic reprezint o valoare real ce corespunde unei valori de intrare, care
determina influena intrrii respective asupra nivelului de activare a neuronului.
La nceput, funciile de activare erau funcii liniare. Dar acestea prezentau neajunsul c
puteau fi folosite doar pentru a rezolva probleme liniar separabile. n prezent, se
utilizeaz funcii de activare neliniare.
2. Arhitectura reelei
O reea neuronal const n aranjarea unui grup de neuroni n unul sau mai multe straturi.
Astfel exist:
reele neuronale simple: neuronii sunt aranjai ntr-un singur strat
reele neuronale multistrat: neuronii sunt aranjai pe mai multe straturi; n acest
caz vom avea un strat de intrare, unul sau mai multe straturi intermediare, i un
strat de ieire
Reele multistrat nu asigur o cretere a puterii de calcul n raport cu reelele cu un singur
strat dac nu prezint o funcie de activare neliniar ntre starturi
3. Algoritmul de antrenare
Reelele neuronale au capacitatea de a nva i acest lucru se realizeaz prin algoritmi de
nvare. Exist mai muli algoritmi de nvare printre care cei mai cunoscui sunt:
a) Algoritmul back-propagation(algoritmul delta generalizat) este cel mai cunoscut i
utilizat algoritm de nvare supervizat i se bazeaz pe minimizarea diferenei
dintre ieirea dorit i ieirea real.
b) nvarea cu ntrire: n acest caz exist un critic care indic nivelul de
corectitudine al rspunsului; aceast metod ia n considerare problema n
ansamblu
c) nvarea hebbian: ideea central este de a modifica ponderea unei conexiuni
proporional cu produsul intrrii i ieirii conexiunii respective:
wi yxi
n continuare este prezentat tabelul cu informaii despre reeaua care cuprinde variabilele
incluse n model, numrul straturilor ascunse i al unitilor care fac parte din acesta,
informaii privind stratul final.
Cross entropy error este o funcie pe care reeaua urmrete s o minimizeze. n aceast
situaie, algoritmul de estimare s-a oprit datorit faptului c a fost atins numrul maxim
de epoci. De obicei, indicat ar fi ca algoritmul s se opreasc atunci cnd eroarea nu
mai scade. Deci aici ceva nu a mers bine pe parcursul antrenrii reelei. Astfel rezultatele
obinute sunt redate n tabelul de mai jos.
n aceasta situaie, sunt reconstruite cele dou eantioane, iar o parte din eantionul-
training este reinut pentru a crea eantionul de testare a modelului. Astfel cazurile din
baza de date vor fi mprite dup cum urmeaz:
Un alt grafic care indic ct de bun este modelul este curba cumulative gains care
arat procentul din numrul total de cazuri dintr-o categorie dat n funcie de un anumit
procent din numrul total de cazuri.
Astfel n cazul categoriei celor care au un PEP primul punct de pe grafic indic faptul c
dac aplici reeaua pentru un set de date se va ajunge la concluzia ca primele 10% din
cazurile alese aleator conin aproximativ 20% din toate cazurile care aparin categoriei
celor are au un PEP, pentru 20% vom avea aproximativ 40% de clieni care au PEP.
Pentru 100% vom avea 100%.
Pentru a stabili procentul acceptabil trebuie s inem cont de costul erorilor de tip I i de
tip II.
Costul erorii de tip I: Costul clasificrii unui client cu PEP ca i un client fr PEP
Costul erorii de tip II: Costul clasificrii uni client fr PEP ca i un client cu PEP
Dac suntem interesai de clienii cu PEP atunci vom micora eroare de tip I, dac suntem
interesai de cei fr PEP, vom micora eroarea de tip II. nainte de respecificarea
modelului pentru 50% din clienii alei aleator, aproximativ 90% aparin celor care au un
PEP. Dup respecificarea acestuia procentul este de aproximativ 96%.
n primul caz, variabilele care au cea mai mare influena asupra faptului c un client are
un PEP sau nu sunt Numrul de copii?, Venit?, Suntei cstorit?, Avei ipotec?. n a
dou varianta, variabilele cele mai importante sunt aceleai, doar c influena lor este mai
redus dect n primul caz.
Utiliznd o reea neuronal s-a obinut un model care poate fi utilizat n previzionarea
probabilitii ca un client s aib un PEP. Aceast metod permite o testare mai riguroas
a modelului(innd cont ca setul de date este mprit n trei eantioane dintre care unul
este folosit pentru a testa validitatea modelului).