Documente Academic
Documente Profesional
Documente Cultură
Istoria rețelelor neuronale artificiale (RNA) sau, simplu, a rețelelor neuronale începe cu
modelul de neuron propus de către McCulloch și Pitts (un logician și un neurobiolog) în 1943.
Vom numi acest model neuronal modelul MP.
Modelul MP presupune că neuronul funcționează ca un dispozitiv simplu, ale cărui intrări
sunt ponderate. Ponderile pozitive sunt excitatoare iar ponderile negative sunt inhibitoare.
Dacă excitația totală, adică suma ponderată a intrărilor, depășește un anumit prag, atunci
neuronul este activ și emite un semnal de ieșire (ieșirea are valoarea +1). Dacă excitația totală
este mai mică decât valoarea prag, atunci neuronul nu este activ și ieșirea lui se consideră a fi
zero.
Hebb a propus un mecanism calitativ ce descrie procesul prin care conexiunile sinaptice
sunt modificate pentru a reflecta mecanismul de învățare realizat de neuronii interconectați
atunci cțnd aceștia sunt influențați de anumiți stimuli ai mediului.
Rosenblatt (1958-1959) a propus un dispozitiv numit perceptron. Perceptronul este bazat pe
interconectarea unei mulțimi de neuroni artificiali și reprezintă primul model de rețea
neuronală artificială.
Bernard Widrow a propus un model neuronal numit ADALINE și o rețea cu elemente de
acest tip numit MADALINE. ADALINE reprezintă acronimul ADAptive LInear NEuron sau
ADAptive LINer Element. MADALINE este un acronim pentru Multiple-ADALINE.
Modelul ADALINE este în esență identic cu modelul perceptronului. Ieșirea este bipolară:
+1 sau -1. ADALINE este un dispozitiv adaptiv, în sensul că există o procedură bine definită
de modificare a ponderilor pentru a permite dispozitivului să dea răspunsuri corecte pentru o
intrare dată. El este și un dispozitiv liniar deoarece ieșirea sa este o funcție liniară.
Minsky și Papert (1969) au demonstrat că modelele simple de tipul perceptronului prezintă
limitări seriose. Astfel, un perceptron standard (elementar) nu poate distinge între două litere
atât de deosebite cum sunt "C" și "T". Dificultatea este legată de neuronii MP care sunt
utilizați în acest perceptron. De asemenea, perceptronul standard nu poate calcula valorile
funcției logice "sau exclusiv". Aceste dificultăți au făcut ca interesul pentru calculul neuronal
să se diminueze. Cercetările privind rețelele neuronale au ieșit din primul plan al atenției
specialiștilor și publicului pentru aproape două decenii.
Noile modele ale procesului de învățare propuse de Rumelhart și McClelland (1986),
Hopfield (1982), Kohonen (1984), Grossberg (1980) și alții, au inițiat un nou val de cercetări
în direcția calcului neuronal. Au fost propuși noi altgoritmi de învățare și s-au realizat diferite
modele de rețele neuronale. În prezent rețelele neuronale au numeroase aplicații iar aspectele
teoretice privind calculul neuronal sunt extrem de mult studiate.
Rețelele neuronale permit rezolvarea unor probleme complicate, pentru care nu avem
altgoritm secvențial dar posedăm unele exemple de soluții. Învățând din aceste exemple (faza
de instruire), rețeaua va fi capabilă să trateze cazuri similare (faza de lucru).
Calculatoarele convenționale (secvențiale) sunt, desigur, instrumente extrem de adecvate în
rezolvarea unui spectru larg de probleme matematice, științifice, inginerești sau economice.
Calculatoarele își dovedesc limitele în domenii în care omul excelează, cum ar fi percepția ți
învățarea din experiență. Multe probleme reale implică, însă, sarcini complexe de
recunoaștere a formelor sau de clasificare. Pentru a transfera calculatorului anumite abilități
umane, cercetătorii au încercat să folosească noi modele de prelucrare, inspirate de
cunoștiințele neurobiologice.
Într-un calculator convențional elementul esențial este procesorul individual, caracterizat de
viteza mare de lucru. În creier, elementele individuale de proces sunt celulele nervoase
(neuronii). Ele sunt mai simple și mai lente decât un procesor de calculator, însă sunt foarte
numeroase. Conexiunile dintre neuroni sunt la fel de importante ca și aceștia. Inteligența și
procesele memoriei rezidă în întreaga rețea de celule și nu în neuronii individuali.
Cortexul cerebral este o rețea neuronală naturală. O astfel de rețea neuronală are capacitatea
de a gândi, învăța, simți și de a-și aminti. În cele ce urmează vom discuta posibilitatea
construirii unor sisteme artificiale care să realizeze o parte din funcțiile cognitive ale unei
rețele neuronale naturale. Ceea ce contează este capacitatea de a îndeplini sarcini ce presupun
inteligență.
Rețelele neuronale artificiale sunt rețele de modele de neuroni conectați prin intermediul
unor sinapse ajustabile. În continuare, ele vor fi numite, simplu, rețele neuronale. Rețelele
neuronale mai sunt cunoscute și sub multe alte denumiri, cum ar fi:
- modele conexioniste
- modele de prelucrare paralelă distribuită
- sisteme neuromorfe
- sisteme neurodinamice
- calculatoare neuronale (sau neurocalculatoare).
Toate modelele de rețele neuronale se bazează pe interconectarea unor elemente simple de
calcul printr-o rețea densă de conexiuni. Fiecare unitate de proces este capabilă să execute
doar calcule simple dar rețeaua, ca întreg, poate avea calități remarcabile în recunoașterea
formelor, rezolvarea problemelor pentru care nu posedăm un altgoritm, învățarea din exemple
sau din experiență.
Paralelismul înalt și capacitatea de învățare reprezintă caracteristicile fundamentale ale
rețelelor neuronale.
Construirea rețelelorneuronale artificiale se bazează pe înțelegerea noastră actuală asupra
sistemelor neuronale biologice. Din acest motiv câteva elemente de neurobiologie sunt
necesare.
Modelarea neuronală
Modelarea neuronală încearcă să dezvolte sisteme instruibile pentru scopuri generale, care
pornesc cu o cantitate mică de cunoștiințe inițiale. Astfel de sisteme se numesc rețele
neuronale, sisteme cu auto-organizare sua sisteme conexioniste. Un sistem de acest tip constă
dintr-o rețea de elemente interconectate de tip neuron, care realizează anumite funcții logice
simple. Un astfel de sistem învață prin modificarea intensității de conexiune dintre elemente,
adică schimbând ponderile asociate acestor conexiuni. Cunoașterea inițială ce este furnizată
sistemului este reprezentată de caracteristicile obiectelor considerate și de o configurație
inițială a rețelei. Acestă categorie de sisteme instruibile include perceptronul, pandemoniul și
orice mașină auto-instruibilă ce folosește funcțiile discriminante. Cercetările în acest
domeniu au condus la abordarea bazată pe teoria deciziilor în recunoașterea formelor. Alte
direcții înrudite sunt învățarea evolutivă ți altgoritmii genetici.
Sistemele bazate pe acest model presupun un nivel scăzut al cunoașterii a priori și folosesc
parametri modificabili pentru a realiza învățarea. O altă caracteristică este caracterul numeric
al metodelor și altgoritmilor de învățare. Prin contrast, urmaătoarele două direcții pun
accentul pe crearea și manipularea unor structuri simbolice complexe în timpul procesului de
învățare.
Rețelele neuronale achiziționează cunoașterea prin instruire. O rețea neuronală este instruită
dacă aplicarea unei mulțimi de vectori de intrare va produce ieșirile dorite. Cunoașterea pe
care rețeaua neuronală o dobândește este memorată de sinapsele neuronale, mai precis, în
ponderile conexiunilor dintre neuroni.
Vectorii de instruire se prezintă rețelei în mod secvențial iar ponderile rețelei sunt ajustate
pentru a capta cunoașterea pe care acești vectori o reprezintă. Ajustarea ponderilor se face în
conformitate cu o procedură prestabilită, care se numește legea de învățare sau altgoritmul de
instruire. În general, fiecare vector din mulțimea de instruire este prezentat rețelei de mai
multe ori. Altgoritmul de instruire trebuie să determine convergența ponderilor spre valori
care să determine ca fiecare vector de intrare să producă ieșirea dorită (admițând că aceasta
este cunoscută).1
Rețelele neurale celulare (RNC) au fost introduse de Chua și colegii săi. În principiu, o
RNC este o rețea Hopfield analogică în care conexiunile unui neuron artificial sunt limitate
doar la neuronii din vecinătatea imediată a acestuia, conexiunile fiind bidirecționale. Celule
care nu sunt conectate direct se pot influența indirect datorită efectului de propagare a
dinamicilor celulelor.
O rețea neurală celulară este o rețea de circuite identice (celule) distribuite regulat în
câmpuri n- dimensionale. Topologia RNC este foarte variată. Se pot realiza RNC cu dispunere
dreptunghiulară, triunghiulară sau hexagonală în plan, RNC cu dispunere toridală a celulelor
în spațiul 2-D sau 3-D, lanțuri finite de celule în 3-D sau secvențe de mai multe câmpuri
bidimensionale în spațiului tridimensional.
Celulele sunt sisteme dinamice cu mai multe intrări și o ieșire. Interconectarea celulelor ține
cont de vecinătatea acestora definită de o metrică dată.
Sistemul dinamic reprezentat de o rețea neurală celulară poate opera atât în timp continuu,
cât și în timp discret. Datele și parametrii rețelei sunt valori continue. Rețelele neurale
celulare sunt rețele recurente, ele operând în mai mult de o iterație.
Avantajul major al rețelelor neurale celulare este dat de faptul că datorită conexiunilor locale
se pot implementa rețele de dimensiuni mari în tehnologie VLSI. RNC sunt indicate în
aplicații de prelucrare a imaginilor, atenuarea zgomotelor, extragerea formelor, detecția
marginilor; RNC au fost testate și pentru aplicații de recunoștere a caracterelor chinezești.
Funcția de apartenență
3
Andea P. Delesegai, Sisteme de protecție și echipamente inteligente, Editura Orizonturi Universitare,
Timișoara 2003, pag 163-176
4
Danciu D. , Sisteme cu mai multe echilibre,Aplicații la rețele neuronale, Editura Universitaria, Craiova, Craiova
2006, pag 46