Sunteți pe pagina 1din 10

In 1943, Warren McCulloch si Walter Pitts au descoperit unul dintre primii neuroni

artificiali {McPi43]. Principala caracteristica a acestui model de neuron este ca suma


ponderata a semnalelor de intrare este comparata cu un prag pentru a determina
sarcina neuronului(iesirea). Cand suma este mai mare sau egala cu pragul, sarcina
este 1. Cand suma este mai mica decat pragul, sarcina este 0. Acestia au incercat
sa arate ca retelele acestor neuroni ar putea,in principiu, ar putea calcula orice
functie aritmetica sau logica. Spre deosebire de retelele biologice, parametrii
acestor retele trebuie sa fie proiectati,deoarece nici o metoda de formare nu a fost
disponibila. Totusi, conexiunea perceputa intre biologie si computerele digitale au
general un mare interes.

Spre sfarsitul anilor 1950, Frank Rosenblatt si alti cativa cercetatori au


creat(dezvoltat) o clasa de retele neurale numite perceptroni(perceptrons). Neuronii
din aceste retele erau similari cu acei gasiti de catre McCulloch si Pitts. Contributia
cheie a lui Rosenblatt a fost introducerea unei reguli de invatare pentru antrenarea
retelelor de perceptroni pentru a rezolva problema de recunoastere a
formelor(modelelor) [ Rose58]. Acesta a demonstrat ca regula gasita de catre el se
va converti intotdeauna la greutatile(parametrii,weights) corecte ale retelei daca
greutatile exista ce rezolva problema??... Invatarea a fost simpla si automata.
Exemple de comportamente corecte au fost prezentate (implementate in retea?)
retelei,care a invatat din propriile greseli. Perceptronul putea de asemea invata
cand era initializat cu valori aleatorii pentru greutati si biasis(aplicarea unui voltaj
sau a unui curent).

Din pcate, reteaua de perceptron este limitata in mod inerent. Aceste limitri au
fost publicate pe larg n cartea Perceptros de Marvin Minsky i Seymour Papert. Ei
au demonstrat c reelele perceptron au fost incapabile s implementeze anumite
funcii elemantare. Abia n 1980, aceste limitri au fost depite prin mbuntirea
reelelor de percepetron(retele multistrat) i a regulilor de nvare asociate. Vom
discuta aceste mbuntiri n capitolele 11 i 12.

Regulile de invatare

Pe msur ce ncepem discuia despre regula nvrii perceptron(a perceptronului),


vrem s discutm regulile de nvare n general. Prin nvarea regulii se nelege o
procedur de modificare a greutilor i a biases(??)a unei reele. Aceast metod
poate fi de asemenea menionat ca un algoritm de antrenament. Scopul regulii de
nvare este de a instrui reeaua pentru a efectua anumite sarcini. Exist multe
tipuri de reguli de nvare n reelele neuronale. Acestea se ncadreaz n trei mari
categorii: nvarea supravegheat, nvarea nesupravegheat i nvarea prin
ntrire.

n nvarea supravegheat, regulile de nvare sunt furnizate cu un exemplu de


comportament adecvat al reelei:
Formula vietii pi din 14 pe langa t rezulta crearea universului spiritual

int

Unde p este o intrare n reea i t este ieirea corect corespunztoare. Pe msur


ce intrrile sunt aplicate reelei, ieirile de reea sunt comparate cu intele. Regula
de nvare este apoi utilizat pentru a ajusta greutile i prejudecile reelei
pentru a muta ieirile de reea mai aproape de inte. Regula de nvare perceptron
se ncadreaz n aceast categorie de nvare supravegheat. Vom analiza, de
asemenea, algoritmele de nvare supervizate n capitolele 7-12.

Consolidarea nvrii(invatarea consolidata)

Aceasta este similar nvrii supravegheate, cu excepia faptului c, n loc s fie


furnizat o ieire corect pentru fiecare intrare de reea, algoritmul este dat doar
unei grade. Gradul (sau scorul) este o msur a performanei reelei pe o anumit
secven de intrri. Acest tip de nvare este n prezent mult mai puin comuna
dect nvarea supravegheat. Se pare c este cel mai potrivita pentru aplicaiile
sistemului de control (a se vedea BaSu83), (WhSo92).

Invatarea necontrolata(nesupravegheata)

n nvarea nesupravegheat, greutile i biasurile sunt modificate doar ca


rspuns doar la intrrile de reea. Nu exist nicio tinta de iesire disponibil. La
prima vedere, acest lucru poate prea impracticabil. Cum poi antrena o reea dac
nu tii ce ar trebui s fac? Majoritatea acestor algoritmi realizeaz o operaie de
grupare. Ei nva s clasifice modelele de intrare ntr-un numr finit de clase. Acest
lucru este util n special n aplicaii precum cuantizarea vectorilor. Vom vedea n
capitolele 13-16 c exist un numr de algoritmi de nvare nesupravegheai.

Arhitectura Perceptron

nainte de a prezenta regula de nvare a perceptronului, s ne extindem


cercetarea perceptorului netowrk, pe care am nceput-o n capitolul 3. Reeaua
general perceptron este prezentat n Figura 4.1

Rezultatul reelei este dat de


A = hardlim (wp + b)

Figura 4.1

Va fi util n elaborarea regulii de nvare perceptron s se poat referi convenabil la


elementele individuale ale ieirii reelei. S vedem cum se poate face acest lucru.
Mai nti, ia n considerare matricea greutii n reea

W = ....

Vom defini un vector compus din elementele rndului i al lui W.

W = ....

Acum putem mpri matricea de greutate:

W = ...

Acest lucru ne permite s scriem elementul i al vectorului outoput de reea ca a =


hardlim ....

Reinei c funcia de transfer hardlim (afiat n stnga) este definit ca:

a = hardlim (n) ....

Prin urmare, dac produsul interior al rndului i al matricei de greutate cu vectorul


de intrare este mai mare sau egal cu -b, ieirea va fi 1, altfel ieirea va fi 0. Astfel,
fiecare neuron din reea mparte spaiul de intrare n dou regiuni. Este util
investigarea limitelor dintre aceste regiuni. Vom ncepe cu cazul simplu al unui
perceptron cu un singur neuron cu dou intrri.
nainte de a prezenta regula de nvare a perceptronului, s ne extindem
cercetarea perceptorului netowrk, pe care am nceput-o n capitolul 3. Reeaua
general perceptron este prezentat n Figura 4.1

Rezultatul reelei este dat de

A = hardlim (wp + b)

Figura 4.1

Va fi util n elaborarea regulii de nvare perceptron s se poat referi convenabil la


elementele individuale ale ieirii reelei. S vedem cum se poate face acest lucru.
Mai nti, ia n considerare matricea greutii n reea

W = ....

Vom defini un vector compus din elementele rndului i al lui W.

W = ....

Acum putem mpri matricea de greutate:

W = ...

Acest lucru ne permite s scriem elementul i al vectorului outoput de reea ca a =


hardlim ....

Reinei c funcia de transfer hardlim (afiat n stnga) este definit ca:

a = hardlim (n) ....

Prin urmare, dac produsul interior al rndului i al matricei de greutate cu vectorul


de intrare este mai mare sau egal cu -b, ieirea va fi 1, altfel ieirea va fi 0. Astfel,
fiecare neuron din reea mparte spaiul de intrare n dou regiuni. Este util
investigarea limitelor dintre aceste regiuni. Vom ncepe cu cazul simplu al unui
perceptron cu un singur neuron cu dou intrri.

Single Neuron Perceptron

Let's consider a two input perceptron with one neuron, as shown in figure 4.2.

Figure....

The output of this network is determined by

a =hardlim)n = hardlim(Wp+b)

=hardlim(....

Decision Boundary

The decision boundary is determined by the input vectors for which the net input n
is zero:

n=....

To make the example more concrete,let's assign the following values for the weights
and bias:

w1.......

The decision boundary is then


n=.....

This defines a line in the input space. On one side of the line the network output will
be 0;on the line and on the other side of the line the output will be 1. To draw the
line, we can find the points where it interesects the p1 and p2 axes. To find the p2
intercept set p1=0.

p2=....

To find the p1 intercept, set p2=0

p1=....

The resulting decision boundary is illustrated in Figure 4.3

To find out which side of the boundary corresponds to an output of 1, we just need
to test one point. For the input p=[2 0] , the network output will be

a = hardlim(.....

Therefore, the network output will be 1 for the region above and to the right of the
decision boundary. This region is indicated by the shaded area in Figure 4.3.

Un design expert sistem fuzzy pentru diagnosticarea cancerului de


prostat
Ismail SARITAS, Novruz ALLAHVERDI i Ibrahim Unal SERT

Abstracie: n acest studiu a fost descris un proiect de sistem expert fuzzy pentru
diagnosticarea, analizarea i nvarea scopurilor bolilor de cancer de prostat.
Pentru acest proces a fost utilizat antigenul specific prostatic (PSA), vrsta i
volumul prostatei ca parametri de intrare i riscul PCR pentru cancerul de prostat
ca rezultat. Acest sistem permite determinarea dac este nevoie de biopsie i ofer
utilizatorului o gam larg de riscuri pentru bolile canceroase. Sa observat c acest
sistem este rapid, economic, fr riscuri dect sistemele tradiionale de
diagnosticare, are o fiabilitate ridicat i poate fi folosit ca sistem de nvare pentru
studenii n medicin.

materiale si metode

Clinicile i datele de laborator pentru sistemul dezvoltat au fost luate din literatura
de specialitate 5 i 10 din acest studiu. Pentru procesul de proiectare, ca parametru
de intrare se utilizeaz vrsta PSA a antigenului specific prostatic i volumul de
prostat PV, iar riscul de apariie a riscului de cancer de prostat. Pentru fuzzificarea
acestor factori variabilele lingvistice foarte mici VS mici S mediu M nalt H foarte
nalt VH foarte sczut VL i sczut L au fost folosite. Pentru mecanismul de inferen
a fost utilizat interferena max-min Mamdani.

Sistem expert fuzzy

Unitile factorilor utilizai sunt: vrsta PSA (ng / ml), PV (ml) i PCR (%).

Prile din regulile fuzzy dezvoltate sunt prezentate n Tabelul 1. Se creeaz 80 de


reguli.

Tabelul 1.....
De exemplu, regula 1, regula 43 i articolul 77 pot fi interpretate dup cum
urmeaz:

n cazul n care nivelul PSA al pacientului este foarte mic i pacientul este foarte mic
i PV este foarte mic, riscul de cancer de prostat al pacientului este foarte sczut.
n cazul n care PSA = L i vrsta = foarte tnr i PV = VS, atunci PCR = foarte
sczut.

Regula 43L Dac PSA = VL i Vrsta = Vrsta medie i PV = H, atunci PCR = VL.
Dac PSA pacientului este foarte sczut i pacientul are vrst medie i pacientul
este ridicat, atunci riscul de cancer de prostat al pacientului este foarte sczut.

Norma 77: Dac PSA = VH i Vrsta = Batran i PV = VS, atunci PCR = VH dac PSA
pacientului este foarte mare i pacientul este batran, i PV pacientului este foarte
mic, atunci riscul de cancer de prostat al pacientului este ridicat.

Pag 10

Celelalte expresii lingvistice (foarte tinere, tinere, de vrst mijlocie i n vrst)


sunt determinate n mod similar. Pentru factorul de ieire PCR expresiile lingvistice
sunt foarte sczute, joase, medii, mari i foarte nalte, care pot fi exprimate ca fiind
foarte mici, mici, mijlocii, ridicate i foarte nalte, respectiv, n formulele (2). De
exemplu, pentru PSA de valoare inalta, vrst medie i foarte mare PV, funciile de
memorie vor avea formularea respectiva:

.....
Defuzzificarea

n aceast etap, gradele de adevr (a) ale regulilor sunt determinate pentru fiecare
regul prin ajutorul minului i apoi prin luarea maxim ntre regulile de lucru. De
exemplu, pentru PSA = 40 ng / ml, Vrsta = 55 ani, PV = 230 ml regulile 60 i 80
vor fi concediate i vom obine: ...

Din inferena Mamdani max-min vom obine funcia de apartenen a sistemului


nostru ca max a (......) = 0.67

, Ceea ce nseamn PCR foarte nalt. Apoi putem calcula ieirea clar. Valoarea clar
a PCR se calculeaz prin metoda deffuzificarii centrului de gravitate, prin formula:

D = ....

Aa cum se poate vedea din fig.6, valoarea a PCR = 78,4. Aceasta nseamn c
pacientul are cancer de prostat cu o posibilitate de 78,4%. Deoarece acesta este
un procent destul de mare, medicul trebuie s decid o biopsie.

discutie si concluzie

Rezultatele FES dezvoltate au fost comparate cu rezultatele din literatura de


specialitate 5 Tabelul 2. Dup cum se poate observa din tabelul de mai jos,
intervalul de descoperire a riscului bolilor de cancer de prostat de ctre FES este
puin mai mare dect datele prezentate n literatura de specialitate 5. Poate fi
rezultatul mpririi variabilelor lingvistice n patru zone. Dac se poate lua mai mult
spaiu pentru variabilele lingvistice, rezultatele pot fi similare cu rezultatele
tradiionale. Dar acest sistem este foarte bun pentru testarea i procesul de
nvare pentru studenii la medicin, specializai n bolile cancerului la
prostata.Acest sistem nu raspunde intrebarii daca este o boala specifica cancerului
in pacient, dar ofer un procent din posibilitatea cancerului de prostat i l ajut pe
doctor s decid o biopsie sau nu este necesar. Studiul arat, de asemenea, c PV
nu este un factor foarte important pentru diagnosticarea cancerului de prostat.
Dei PV crete PSA, nu nseamn cancer.

Tabelul 22 ...

Lucrarea descrie un design al unui sistem expert fuzzy pentru determinarea


posibilitii de diagnosticare a cancerului de prostat, care poate fi utilizat de
medicii specializai pentru tratament i de ctre studeni pentru nvarea
domeniului. Acest sistem poate fi dezvoltat n continuare prin creterea regulilor de
cunoatere dintr-o parte i prin adugarea reelei neuronale ctre sistem din
cealalt parte.

S-ar putea să vă placă și