Sunteți pe pagina 1din 8

Universitatea ,,Aurel Vlaicu Arad

Inteligen artificial PERCEPTRONUL

Prof.coord. Bala Valentina

student: Ceauu Sergiu

Este construit n jurul unui neuron nelinear (cu funcia de activare nelinear) Neuronul are mai multe intrri i o singur ieire.

Clase liniar separabile


Dou

clase ce pot fi desprite printr-un hiperplan (o dreapt n plan, un plan n spaiul 3D etc.) Hiperplanul de decizie: a)- linear separabil, b) neseparabil linear

Un singur perceptron poate reprezenta funciile booleene AND, OR, NAND, NOR- (important, pentru c orice funcie boolean se poate reprezenta ca o combinaie a acestora)

Scop: determinarea vectorului w. 1.Dac exemplul x(t) este clasificat corect de w(t), w(t) rmne nemodificat. 2.Altfel:

w(t+1)=w(t)-(t)*x(t), dac wT(t)x(t)>0 i x(t) C2; w(t+1)=w(t)+(t)*x(t), dac wT(t)x(t)0 i x(t) C1. ((t) este parametrul de nvare (>0)- controleaz procesul de nvare).

Dac mulimile de vectori de antrenare H1 i H2 (pentru C1, respectiv C2) sunt linear separabile, perceptronul converge dup n0 iteratii (n0 nmax determinat de parametri dependeni de H1, H2): w(n0)= w(n0+1)=... (pentru o rat de nvare suficient de mic)

Dac exemplele nu sunt linear separabile, este posibil ca perceptronul s nu convearg. O soluie a acestei probleme este dat de regula Delta: aceasta converge ctre o aproximaie optim a vectorului de ponderi int chiar dac exemplele de antrenare nu

sunt linear separabile.

Att regula Delta ct i regula de antrenare a perceptronului pot fi folosite la nvarea ponderilor unui perceptron. Regula Delta actualizeaz w pe baza erorii calculat pentru combinaia linear a intrrilor FR aplicarea PRAGULUI; Regula de nvare a perceptronului actualizeaz ponderile pe baza erorii calculate pentru ieirea trecut prin funcia treapt (deci DUP aplicarea PRAGULUI).

Regula de nvare a perceptronului converge ntr-un numr finit de iteraii spre ipoteza w care clasific perfect datele de antrenare, dac acestea sunt linear separabile; Regula Delta converge asimptotic spre ipoteza de eroare minim (posibil n timp infinit), indiferent de linear separabilitatea datelor.

S-ar putea să vă placă și