Documente Academic
Documente Profesional
Documente Cultură
1
Introducere
1.1 Reele neuronale artificiale definiie, proprieti
Preocuparea pentru reelele neuronale artificiale, denumite n mod curent reele neuronale,
a fost motivat de recunoaterea faptului c modul n care calculeaz creierul fiinelor vii este
complet diferit de cel al calculatoarelor numerice convenionale. Fiind modele simplificate ale
creierului uman, ele dein capacitatea de a nva, spre deosebire de calculatoarele convenionale,
care rmn totui mai eficiente pentru sarcinile bazate pe operaii aritmetice precise i rapide
Reelele neuronale nu dispun de uniti de procesare puternice, dimpotriv, acestea sunt
caracterizate printr-o simplitate extrem, ns interaciunile lor pe ansamblu produc rezultate
complexe datorit numrului mare de conexiuni.
Reelele neuronale artificiale (RNA) sunt ansambluri de elemente de procesare simple,
puternic interconectate i opernd n paralel, denumite uneori procesoare paralel distribuite,
neurocomputere sau modele conexioniste. RNA reprezint o ncercare de a simula, cel puin parial,
structura i funciile creierului specifice organismelor vii. Dei nu exist o definiie general
acceptat, se poate spune c RNA reprezint un sistem de procesare al semnalelor, compus dintr-un
numr mare de procesoare elementare interconectate, denumite neuroni artificiali sau noduri care
coopereaz pentru rezolvarea unor sarcini specifice. Aceste noduri sunt puternic interconectate prin
intermediul unor legturi numite interconexiuni prin care se propag informaie numeric. n
reelele neuronale informaia nu mai este memorat n zone bine precizate, ca n cazul
calculatoarelor standard, ci este memorat difuz n toat reeaua. Modalitatea de adaptare la
condiiile specifice mediului const n modificarea ponderilor asociate conexiunilor dintre neuroni
i eventual a structurii RNA.
Originea acestor reele trebuie cutat n studierea reelelor bioelectrice din creier formate de
neuroni i sinapsele acestora. Principala trstur a acestor reele este capacitatea de a nva pe
baz de exemple, folosindu-se de experiena anterioar pentru a-i mbunti performanele.
Astfel de modele conexioniste ofer anumite avantaje, caracteristice sistemelor neuronale
reale (biologice) i care nu sunt ntlnite n cazul sistemelor de calcul tradiionale, secveniale:
- O proprietate deosebit de important a RNA este aceea de a nva i de a se adapta;
- Posibilitatea de a opera cu date imprecise;
- Capacitatea de generalizare, n sensul n care RNA va opera corect i cu date de intrare care nu
au fost prezentate n timpul procesului de antrenament;
- Datorit gradului ridicat de paralelism , funcionarea defectuoas sau chiar pierderea unui numr
de neuroni nu afecteaz semnificativ performana sistemului global. RNA reprezint deci sisteme
tolerante la erori;
- Capacitatea de a aproxima orice funcie continu neliniar cu gradul de acuratee dorit. Astfel
RNA pot fi folosite cu succes n modelarea sistemelor neliniare;
- Datorit numrului mare de intrri i ieiri, RNA modeleaz cu uurin sisteme multivariabil;
- Implementrile hardware ale RNA, de exemplu prin intermediul circuitelor integrate pe scar
larg (VLSI), fac posibil utilizarea RNA pentru cazul aplicaiilor n timp real.
2. Neuronul biologic.
Modul n care funcioneaz creierul este nc un mister. Totui anumite aspecte privind
structura creierului sunt deja cunoscute. n particular, este bine cunoscut faptul c creierul este
format din celule numite neuroni, despre care se presupune c ne ofer capacitatea de a memora, a
gndi, a folosi experienele dobndite anterior.
Creierul uman const dintr-o reea de 1010...1011 neuroni puternic interconectai. Fiecare
neuron este interconectat cu ali neuroni. Numrul de conexiuni poate varia de la 1000 la 10.000
dar pot exista i neuroni care au 200.000 de ali neuroni conectai.
Neuronii care alctuiesc creierul efectueaz sarcini simple i la o vitez nu prea mare (timp
de rspuns 103s) dar sunt puternic interconectai si lucreaz n paralel. Avnd n vedere faptul c
circuitele electronice care stau la baza calculatoarelor actuale au timpi de rspuns mult mai mici
(109s) i totui sunt surclasate de ctre creier n rezolvarea unor probleme complexe (vedere,
decizii pe baza unor date incomplete etc.), rezult c puterea computaional a creierului rezid n
faptul c milioane de neuroni opereaz simultan. Evident, ar fi de dorit realizarea de sisteme care s
lucreze cu viteza componentelor electronice i s fie caracterizate de conectivitatea creierului.
n fig.1 este prezentat structura unei celule nervoase.
neuron (sinapse axo-dendritice); ntre butonii terminali ai axonului unui neuron i corpul altui
neuron (sinapse axo-somatice); ntre butonii terminali ai axonului unui neuron poriunea incipient
a axonului altui neuron (sinapse axo-axonale). Stocarea informaiei n neuroni se presupune c este
efectuat prin intermediul conexiunilor sinaptice, mai precis prin tiparele pe care le formeaz
acestea i prin ponderea pe care o are fiecare legtur n parte.
cel mai rspndit are la baz modelul elaborat de McCulloch-Pitts n 1943. Astfel se poate
considera c neuronul artificial este format dintr-un numr de intrri, fiecare dintre acestea fiind
caracterizat de propria pondere sinaptic. De exemplu, semnalul xj prezent la intrarea sinapsei j
este conectat la neuronul k prin multiplicare cu ponderea wkj (fig.3).
uk wkj x j
(1)
j 1
(2)
- Funcia sigmoid:
Funciile sigmoid i tangent hiperbolic reprezint unele dintre funciile de activare cel
mai des folosite la implementarea RNA, unul dintre motive reprezentndu-l calculul simplu al
derivatelor acestora.
- Funcia liniar:
- Funcia liniar cu saturaie:
- Funcia gaussian:
10
J E ek2 n
2 k
11
12
n acest paragraf sunt prezentate arhitectura i algoritmii de antrenament pentru cazul RNA
cu un singur neuron: perceptronul simplu i RNA ADALINE antrenat cu algoritmul LMS.
Perceptronul simplu are o aplicabilitate practic limitat datorit valorii binare a ieirii sau
datorit imposibilitii clasificrii tiparelor (vectorilor de intrare) neliniari. El se constituie
ns ca punct de plecare n studiul perceptronului multistrat.
Perceptronul simplu
Arhitectura unei astfel de RNA este prezentat n figura 15. Se poate afirma c perceptronul
simplu reprezint o particularizare a modelului McCulloch-Pitts al neuronului artificial pentru cazul
n care funcia de activare este de tip treapt unitate bipolar.
v wi xi
i 1
1, dac x n C1
y v sgn v
1, dac x n C2
Regiunile de decizie vor fi separate de ctre un hiperplan definit de relaia:
N
w x 0
i 1
i i
13
n = prag,
y n = rspuns actual,
d n = rspuns dorit,
14
1, dac x n C1
d n
1, dac x n C2
d) Incrementarea lui n cu o unitate i salt la pct.b)
RNA Adaline. Algoritmul LMS
Algoritmul celor mai mici ptrate (LMS - Least Mean Square), cunoscut i sub denumirea
de algoritmul Widrow-Hoff sau regula delta, este destinat antrenrii unei RNA format dintrun singur neuron liniar. Ceea ce l difereniaz de algoritmul de antrenament al perceptronului
simplu este modul de calcul al semnalului de eroare, care n acest caz nu este cuantizat iar
funcia de activare poate fi liniar.
Avnd n vedere aceste aspecte, algoritmul LMS poate fi formulat n modul urmtor:
y n wj n x j n
j 0
e n d n y n
wk n 1 wk n e n xk n , k=1,2,,N
Formularea algoritmului LMS s-a fcut din perspectiva unei filtrri spaiale.
El poate fi utilizat n aceeai msur n rezolvarea problemelor de filtrare temporal,
considernd c x(n) reprezint eantioane ale vectorului de intrare la momente de timp diferite:
x n x n , x n 1 ,..., x n N 1
15
J E ek2 n
2 k
1
2
ek2 n
k
16
c
, c ct .
n
0
, 0 , ct .
n
1
17
Exist dou moduri n care se pot adapta ponderile RNAMLP n cursul etapei de
antrenament:
modul tipar cu tipar, (pattern by pattern) n care dup aplicarea fiecrei perechi de tipare
intrareieire ponderile sunt actualizate;
modul lot de tipare, (batch) n care ponderile sunt calculate o singur dat pe baza tuturor
perechilor de tipare intrareieire disponibile.
18
apriori.
n general, un singur strat ascuns e suficient pentru rezolvarea majoritii problemelor.
n mod excepional, se pot folosi dou, cel mult trei straturi ascunse.
De regul, numrul de neuroni afereni straturilor de intrare respectiv ieire este dictat
de natura aplicaiei. Neuronii structurilor ascunse au rolul foarte important de a detecta trsturile,
legitile, regularitile coninute n tiparele de antrenament.
Un numr prea mare de neuroni ascuni/strat influeneaz n mod negativ capacitatea de
generalizare a RNA. Totodat conduce la sporirea volumului de date care urmeaz a fi procesat i
deci la o durat sporit pentru etapa de antrenament. Un numr prea mic de neuroni nu este suficient
pentru formarea unei reprezentri interne a datelor adecvat i poate conduce la o eroare medie
ptratic mare pe parcursul epocilor de antrenament i implicit la o eroare mare corespunztoare nu
numai datelor de test ci i celor de antrenament.
n concluzie, numrul optim de neuroni ascuni se va determina experimental.
19
constat c funcia radial are un maxim dac intrarea e nul. Dac distana dintre t i x descrete,
valoarea ieirii crete. Adic neuronul radial se comport ca un detector care produce 1 la ieire
de fiecare dat cnd tiparul de intrare e identic cu vectorul pondere t.
d R
i
F xi di , i 1, 2,...., N .
F x wi x xi
i 1
20
1/2
, c 0, r 0
sau
r2
, 0, r 0
2
2
r exp
Exista mai multe metode de antrenament ale RNA-RBF, deosebirea ntre ele constnd n
metoda de alegere a centrilor funciilor radiale.
- Metoda bazat pe creterea reelei
Iniial stratul ascuns nu are nici un neuron. Dup fiecare epoc, vectorul de intrare pentru
care se obine cea mai mare eroare la nivelul stratului de ieire este folosit pentru crearea
unui nou neuron prin egalizarea ponderilor acestuia cu vectorul de intrare. Se calculeaz apoi
ponderile stratului liniar. Dac se ajunge la eroarea (performana) dorit sau dac se atinge
un numr maxim de neuroni pentru stratul ascuns, procesul de antrenament va fi ncheiat.
- Metoda centrilor fici, alei aleator
Reprezint una dintre cele mai simple abordri i presupune funcii radiale fixe care
definesc funciile de activare ale stratului ascuns. Locaiile centrilor funciilor sunt alese aleator
dintre vectorii de intrare.
- Metoda seleciei autoorganizate a centrilor
n cadrul acestei abordri este permis deplasarea locaiei centrilor funciilor radiale ntr-o
manier autoorganizat, n timp ce ponderile stratului liniar de ieire sunt calculate ntr-o manier
supervizat.
Componenta autoorganizant permite alocarea
resurselor RNA astfel nct centrii
funciilor radiale vor fi plasai doar n regiuni semnificative ale spaiului de intrare. Pentru
selecia autoorganizat a centrilor se poate folosi metoda celor mai apropiai k vecini iar
pentru nvarea supervizat se poate folosi un algoritm bazat pe corecia erorilor (de exemplu
LMS).
RNA-RBF au fost folosite cu succes n deosebi la problemele de
aproximare/interpolare [18] i predicie [19] a funciilor. RNA-RBF reprezint o soluie
alternativ n special n problemele ce presupun interpolarea, aproximarea sau predicia funciilor.
De menionat ns i posibilitarea folosirii lor n probleme de clasificare.
21
n acest capitol se prezint o alt clas important de RNA i anume aceea a RN cu structur
recurent. RNA recurente sunt caracterizate de:
- uniti de procesare neliniare;
- simetria conexiunilor sinaptice (wji = wij );
- folosirea intensiv a feedback-ului .
Din aceast categorie fac parte RNA Boltzmann (RNA-B) i RNA Hopfield (RNA-H), cea
din urm fiind detaliat n cele ce urmeaz, dezvoltarea acestora fiind inspirat din fizica statistic i
termodinamic.
RNA de tip Hopfield (RNA-H)
Poate fi vzut ca o memorie asociativ sau ca o memorie adresabil prin coninut, a crei
funcie principal este regsirea tiparelor stocate n memorie, ca rspuns la prezentarea unui
tipar incomplet sau contaminat cu zgomot. Esena memoriilor adresabile prin coninut const n
transformarea tiparelor n stri stabile s ale sistemului dinamic (proces de codare) i invers
(proces de decodare).
Fiecare neuron, de tip McCulloch-Pitts, al RNA-H (fig.24) este caracterizat prin una din cele
dou stri posibile: activ (si = 1) , respectiv inactiv (si = -1). Starea unei RNA-H alctuit din N
neuroni este definit de ctre vectorul:
s s1 , s2 ,..., s N
v j w ji si j
i 1
22
sau echivalent s j sgn v j . Dac v j 0 atunci s j poate lua o valoare arbitrar, +1 sau 1.
y j sgn w ji yi i , j 1, 2,..., N
i 1
E s j w ji si
i 1
i j
Astfel, n timpul fazei de regsire a unui tipar, E descrete monoton. Schimbarea strii
RNA-H va continua pn cnd se va atinge un minim local al peisajului energetic.
23