Documente Academic
Documente Profesional
Documente Cultură
RNA cu un singur strat. n acest caz stratul unic joac rol dublu intrare-
ieire. Totodat, absena altor straturi impune ca aceste RNA s aib o topologie
buclat. n aceast categorie se nscriu reelele Hopfield, precum i variante ale
acestora, care se deosebesc n funcie de modul de conectare a neuronilor. Reele
cu un singur strat sunt folosite pentru completarea modelelor, filtrarea unor
semnale sau rezolvarea unor probleme de optimizare;
Regula delta generalizat
Perceptronii multistrat cu mai multe ieiri i funcii de transfer sigmoidale sau
liniare se mai numesc i reele backpropagation.
Denumirea provine de la algoritmul de nvare utilizat de aceste structuri i
anume algoritmul backpropagation BP sau algoritmul de propagare napoi a
erorii.
Algoritmul BP urmrete minimizarea funciei de performan (eroarea ptratic
parial sau total) printr-o metod de gradient. Din acest motiv funciile de
activare sau transfer ale neuronilor trebuie s fie continue i derivabile pe tot
domeniul de definiie, cerine satisfcute de funciile sigmoidale i funcia
liniar.
Generarea unei reele MLP cuprinde dou etape:
etapa de nvare
etapa de testare
Corecia ponderilor neuronilor de pe stratul de ieire
n metoda gradientului descendent, respectiv n algoritmul BP, procesul de
cutare a punctului de minim al funciei de performan a reelei MLP const n
deplasarea dup direcia antigradientului pe o lungime proporional cu rata de
nvare a crei valoare este selectat n mod arbitrar de ctre utilizator.
Adaptarea metodei Newton la antrenarea reelelor MLP conducela urmtoarele
relaii de recuren pentru modificarea ponderilor:
1
Wt 1 Wt H Wt E Wt
1
Vt 1 Vt H Vt E Vt
4. Neuronul clasificator (perceptronul): structura, ecuaiile de evoluie i
regulile de modificare a ponderilor
x1 w1
wi netj-Tj 1
xi yj
xn wn wn+1 =Tj
xn+1=-1
Ecuaiile de funcionare ale perceptronului sunt ecuaiile modelului MCP.
Deosebirea provine din faptul c de aceast data intrrile sunt valori reale i nu
valori binare de tipul 1 sau 0, funcia de activare fiind tot de tipul treapt.
Prin urmare evoluia perceptronului este descris de:
n
net WT X wi xi T
i 1
1, net 0
y f net
0, altfel
Problema care se pune const n gsirea unui algoritm de nvare care s
determine vectorul ponderilor W astfel nct frontiera s ajung s separe corect
elementele. Cu alte cuvinte, ieirea neuronului s fie y =1 sau y =0, dup cum
intrarea aparine clasei A sau clasei B.
Algoritmul standard de antrenare a perceptronuli, modific valorile
ponderilor ori de cte ori la intrarea reelei este prezentat o configuraie
incorect clasificat.
5. Cutri neinformate n spaiul strilor: caracterizare i algoritmul
cutrii pe nivel.
Se consider:
un graf definit prin mulimea operatorilor asociai arcelor;
nodul sau mulimea de noduri ce definesc starea iniial Si.
nodul sau mulimea de noduri ce definesc starea final S f .
Pentru rezolvarea este necesar s se gseasc o cale ntre starea initial i
starea final. Principiul care se afl la baza algoritmului generic de cutare
const n explorarea cilor ce pornesc din nodurile aferente strii iniiale i
folosete noiunea de frontier pentru a delimita nodurile explorate de cele care
nu au fost nc explorate.
n parcurgerea spaiului de cutare un nod poate fi:
necunoscut - nodul aparine prii neexplorate a spaiului de cutare,
evaluat - nodul este cunoscut dar fie nu se cunoate nici un succesor al lui,
fie se cunosc numai o parte dintre acetia;
expandat - nodul este cunoscut si, in plus, se cunosc toi succesorii lui
n procesul de cutare se vor folosi doua liste:
LF lista frontier care conine nodurile evaluate;
LT lista teritoriu care conine nodurilor expandate.
Cutarea pe nivel, numit i cutarea n lime, este o strategie care
expandeaz strile urmtoare n ordinea apropierii fa de nodul stare iniial Si.
Aceast strategie trateaz lista frontier LF folosind o strategie de tipul FIFO.
Nodul din frontier care se elimin este primul din list, iar succesorii si sunt
adugai la sfritul listei.
Algoritm: Strategia cutrii pe nivel in spaiul strilor
1. Creeaz listele LF{Si} si LT{ }
2. DAC LF={ }
ATUNCI ntoarce INSUCCES /* nu exist soluie */
3. Elimin primul nod Sc din LF si-l insereaz n LT
4. Expandeaz nodul Sc
4.1 Genereaz toi succesorii direci S j ai nodului Sc
4.2 pentru fiecare succesor Sj (1 j m) al lui Sc executa
4.2.1 Stabilete legtura Sj S
4.2.2 daca Sj este stare final
atunci
i) Soluia este (Sj,S,...,Si )
ii) ntoarce SUCCES /* s-a gsit soluie */
4.2.3 Insereaza S j in LF, la sfrit
5. repeta de la 2
sfrit.
7. Clasificarea strategiilor de cutare dup cantitatea de informaie.
Costul computaional.
Dup:
capacitatea mecanismului de rezolvare de a reveni ntr-o stare
intermediar anterioar;
dup cantitatea de informaie folosit la gsirea soluiei.
n funcie de cel de-al doilea criteriu, strategiile de cutare se mpart n:
Strategii de cutare neinformate.
Strategiile de cutare neinformat inspecteaz sistematic toate strile spaiului
de cutare pn n momentul gsirii strii finale. Cele mai importante strategii
de acest fel sunt cutarea pe nivel si cutarea in adncime.
Strategii de cutare informate.
Strategia folosete o funcie de evaluare a situaiei globale sau locale care
indic starea urmtoare cea mai promitoare din punct de vedere al avansului
spre soluie.
Costul computaional depinde de locul unde se situeaz strategia de control
n spectrul neinformat/informat i are dou componente:
costul parcurgerii spaiului de cutare ntre starea iniial si starea final;
costul controlului, sau costul evalurii si seleciei celei mai promitoare
stri urmtoare.
9. Cutri neinformate n spaiul strilor: caracterizare i algoritmul
cutrii n adncime.