Sunteți pe pagina 1din 56

INTELIGEN ARTIFICIAL. REELE NEURONALE I LOGIC FUZZY.

NOTIE DE CURS

Grif H., t.

CUPRINS

Reele neuronale artificiale............................................................................................2


1 INTRODUCERE .........................................................................................................................................................2
2 NEURONUL BIOLOGIC ..............................................................................................................................................3
3 NEURONUL ARTIFICIAL............................................................................................................................................4
4 REELE NEURONALE ARTIFICIALE FEED-FORWARD MULTISTRAT ............................................................................7
4.1. Generaliti....................................................................................................................................................7
4.2. Regula de nvare Delta generalizat ..........................................................................................................8
4.3. Procedur iterativ pentru antrenarea RNA cu un singur strat ascuns utiliznd regula Delta generalizat
............................................................................................................................................................................12
5 MEMORII ASOCIATIVE ...........................................................................................................................................14
5.1. Definiii ........................................................................................................................................................14
5.1.2 Tipuri de memorii asociative .....................................................................................................................15
5.2. Memorii asociative bidirecionale (MAB)....................................................................................................15
5.2.3 Formalismul matematic al MAB ................................................................................................................17
5.3. MEMORIA HOPFIELD .........................................................................................................................................24
5.3.1. Memoria Hopfield discret .......................................................................................................................24
5.3.2. Memoria Hopfield continu ......................................................................................................................27
REEAUA CARPENTER-GROSSBERG .........................................................................................................................31
1. Prezentare general........................................................................................................................................31
2. Dilema stabilitate-plasticitate.........................................................................................................................31
3. Arhitectura ART1. Funcionarea de baz .......................................................................................................32
4. Algoritmul de antrenare ART1........................................................................................................................38

Logica fuzzy..................................................................................................................40
1.

NOIUNI DE LOGIC FUZZY .............................................................................................................................40


1.1. Introducere...................................................................................................................................................40
1.2. Definiii ........................................................................................................................................................41
2. STRUCTURA GENERAL A UNUI SISTEM FUZZY .....................................................................................................45
2.1 Variabile, valori i reguli lingvistice ............................................................................................................45
2.2 Fuzzyficarea..................................................................................................................................................49
2.3 Mecanismul de decizie ..................................................................................................................................49
2.4 Defuzzyficarea ..............................................................................................................................................51
2.5. Structuri fuzzy ..............................................................................................................................................52

REELE NEURONALE ARTIFICIALE

1 INTRODUCERE

Reelele neuronale artificiale (RNA) sunt modele simplificate ale reelelor de neuroni naturali,
neuronii fiind conectai prin sinapse artificiale (numite ponderi) artificiale.
RNA mai sunt cunoscute i sub numele de:
- modele conexioniste,
- modele de prelucrare paralel distribuit,
- sisteme neuromorfe,
- sisteme neurodinamice,
- calculatoare neuronale.
Modelele de reele neuronale sunt formate din elemente simple (uniti de procesare) de calcul
interconectate printr-o reea dens de conexiuni. Fiecare unitate de procesare este capabil s
execute calcule simple dar reeaua, ca ntreg, poate avea caliti remarcabile n rezolvarea
problemelor pentru care nu posedm un algoritm, deoarece posed capacitatea de nvare din
exemple sau experien.
RNA fiind modele ale reelelor de neuroni biologici vor avea la rndul lor aceleai caracteristici
fundamentale, i anume:
- paralelismul nalt,
- capacitatea de nvare.
Pentru o nelegere mai bun reelelor neuronale se va studia n continuare elementul de baz
dintr-o reea neuronal i anume neuronul.

2 NEURONUL BIOLOGIC

Simplificat neuronul biologic (Figura 1) este format din:


- corpul celulei (soma)
- dendrite (intrrile n neuron)
- axon (ieirea din neuron)

Figura 1 Reprezentarea schematic a neuronului biologic

Punctele de interconectare ntre neuroni poart numele de jonciuni sinaptice (sau simplificat
sinapse), prin intermediul lor realizndu-se schimbul de informaii. La nivelul unei sinapse
anumite substane chimice vor modifica permeabilitatea (starea de polarizare electrostatic)
membranelor celulelor presinaptic i postsinaptic, favoriznd difuzia anumitor specii de ioni
spre interiorul celulei postsinaptice. n funcie de semnul ionilor va aprea un efect excitator sau
inhibitor al conexiunii dintre cele dou celule neuronale. Aceste efecte sunt n realitate poteniale
electrice, de diferite nivele, ce se transmit prin dendrite spre corpul celulei neuronale
postsinaptice, i mai departe spre axon. Potenialele electrice transmise se vor nsuma la rdcina
axonului i dac aceast sum este mai mare dect un anumit prag atunci va fi generat un
potenial de aciune.

3 NEURONUL ARTIFICIAL

Figura 2 Modelul general al neuronului artificial

Modelul general al unui neuron artificial este prezentat n Figura 2, iar semnificaiile prilor
componente sunt urmtoarele:

- xi i = 1, n reprezint intrrile n neuron. Aceste intrri n cazul integrrii neuronului ntro reea de neuroni vor reprezenta activrile tuturor neuronilor conectai la acest neuron n
cauz. Setul celor n intrri x=(x1 x2 xn) mai este cunoscut i sub numele de vector de
intrare
- wi i = 1, n reprezint ponderarea intrrii i. Aceast pondere determin efectul pe care l
are semnalul oferit de intrarea i asupra ieirii neuronului. Ponderile reprezint echivalentul
jonciunilor sinaptice ntlnite la reelele de neuroni biologici.
- Neuronul vede toate intrrile ca o intrare general (total) y care este calculat folosind
o funcie de intrare la care se adaug o valoare de offset sau bias (). n majoritatea
cazurilor funcia de intrare utilizat este funcia sum ponderat a tuturor intrrilor xi.
Expresia matematic de calcul a intrrii generale n acest caz este dat de relaia:
n

y = Fin (x ) + = xi wi +

(1)

i =1

Alte tipuri de funcii folosite ca funcii de intrare:


- funcia max{xiwi}, i=1n,
- funcia min{xiwi}, i=1n,
- funcia (xiwi), i=1n,
- Funcia de activare stabilete activarea neuronului. Din cele prezentate n paragraful
anterior, neuronul biologic poate fi activ (excitat) sau nu. Deci prezint o stare de
activare. La fel i neuronii artificiali pot s aib, unii, dou stri de activare (cazul
perceptronului binar) sau mai multe stri de activare (cazul neuronilor artificiali reali).
Tipuri de funcii pentru funcia de activare (Fa) a neuronului artificial:
- funcia prag (Figura 3):
4

1 daca y 0
Fa ( y ) =
1 daca y < 0

(2)

Figura 3 Funcie de activare prag

- funcia liniar (Figura 4):

1 daca y > 1

Fa ( y ) = y daca y 1
1 daca y < 1

(3)
Figura 4 Funcie de activare liniar

- funcia sigmoid unipolar (Figura 5):

Fa ( y ) =

1
1 + ey

(3)
Figura 5 Funcie de activare sigmoid
unipolar

- funcia sigmoid bipolar (Figura 6):

Fa ( y ) =

2
1
1 + ey

(4)
Figura 6 Funcie de activare sigmoid
bipolar

- funcia tangent hiperbolic (Figura 7):

Fa ( y ) = tanh( y ) =

e y e y
e y + ey

(5)
Figura 7 Funcie de activare tangent
hiperbolic

- funcia arctangent (Figura 8):

Fa ( y ) = arctg ( y )

(6)

Figura 8 Funcie de activare


arctangent

- a reprezint activarea (ieirea) neuronului:


a=Fa(y)

(7)

adic valoarea oferit de funcia de activare.

4 REELE NEURONALE ARTIFICIALE FEED-FORWARD MULTISTRAT


4.1. Generaliti

Din punct de vedere topologic se disting dou tipuri de reele neuronale artificiale:
- reele neuronale feed-forward
- reele neuronale recurente
RNA feed-forward sunt reele de neuroni care nu conin conexiuni inverse, adic conexiuni de la
ieiri ctre intrrile neuronilor din acelai strat sau ctre intrrile unor neuroni din straturile
anterioare. Astfel transmisia de date se face ntr-un singur sens, de la neuronii din stratul de
intrare spre neuronii din stratul de ieire. n contrast cu reelele feed-forward, reelele neuronale
recurente conin conexiuni inverse de la neuronii din stratul de ieire la neuronii din straturile
anterioare (conexiuni feed-back).
Intr-o RNA feed-forvard multistrat neuronii sunt organizai pe straturi, astfel c reeaua neuronal
prezint urmtoarele tipuri de straturi:
- un strat de intrare,
- unul sau mai multe straturi ascunse
- un strat de ieire
Structura general a unei RNA multistrat feed-forward este prezentat n Figura 9.

Figura 9 Structura general a unei RNA multistrat feed-forward

Dup cum se poate vedea din Figura 9 fiecare strat este compus din neuroni care au ca intrri
ieirile neuronilor din stratul imediat inferior iar ieirile neuronilor sunt trimise n stratul imediat
superior. Astfel un vector x de intrare este prezentat reelei neuronale prin intermediul stratului de
intrare cu N0 neuroni, ieirile neuronilor din acest strat sunt prezentate primului strat ascuns (cu
N1 neuroni), ieirile neuronilor din acest strat sunt prezentate celui de-al doilea strat ascuns (cu
N2 neuroni), s.a.m.d. pn la ultimul strat ascuns (cu NL neuroni) ale crui ieiri sunt prezentate
stratului de ieire cu NL+1 Ieirile neuronilor din acest strat reprezentnd ieirile ntregii RNA.
Not: Vom considera urmtoarea convenie: n neuronii din stratul de intrare nu se efectueaz
nici un fel de procesare, adic se consider c neuronii din acest strat au o singur intrare fiecare,
7

iar ca funcie de activare au funcia liniar. Cu alte cuvinte intrarea fiecrui neuron (din stratul de
intrare) este trimis la ieirea sa fr nici o modificare i distribuit intrrilor neuronilor din
primul strat ascuns.
Existena stratului ascuns confer RNA caliti superioare. n cazul RNA cu dou straturi (au un
strat de intrare i un strat de ieire) exist restricii severe: ele sunt capabile s proiecteze forme
de intrare similare n forme de ieire similare, ceea ce poate duce la o instabilitate n ce privete
nvarea de ctre RNA a unor funcii. Astfel sunt situaii n care structurile de similaritate ale
formelor de intrare i acelor de ieire sunt foarte diferite. n aceast situaie o RNA care nu
construiete o reprezentare intern, deci nu are straturi ascunse, va fi incapabil s realizeze
funcia respectiv. Stratul ascuns realizeaz o extindere a formelor de intrare, n sensul c exist
ntotdeauna o recodificare, adic o reprezentare intern convenabil a formelor n unitile
ascunse. Prin aceast recodificare similaritatea formelor n raport cu unitile ascunse permite
realizarea oricrei funcii de la cmpul de intrare la cel de ieire. Astfel Hornik i White n 1989
au artat c o reea neuronal feed-forward - n cazul creia neuronii au ca funcie de activare
funcia sigmoid - poate s aproximeze cu orice precizie orice funcie msurabil n sens Borel.
4.2. Regula de nvare Delta generalizat

n continuare se prezint o generalizare a regulii Delta utilizat la antrenarea RNA cu dou


straturi (un strat de intrare i unul de ieire). n continuare vom considera c toi neuronii mai
puin cei din stratul de ieire au ca funcie de activare o funcie care ndeplinete urmtoarele
condiii: este continu, difereniabil, monoton i neliniar. Neuronii din stratul de intrare vor
respecta consideraia fcut n cadrul notei din paragraful anterior, conform creia neuronii au o
singur intrare i au ca funcie de activare funcia liniar. n majoritatea lucrrilor se prezint
deducerea regulii Delta numai pentru reele neuronale feed-forward cu un singur strat ascuns. n
continuare se va face deducerea formulelor matematice pentru cazul general i anume pentru o
reea neuronal artificial feed-forward cu multiple straturi ascunse. Vom considera o RNA
asemntoare cu cea prezentat n Figura 9, cu observaia c aceast reea neuronal va conine in
total 3 staturi (numrul L = 1):
-

strat de intrare;

strat ascuns;

strat de ieire.

Not: n continuare se va defini ca vector de nvare (sau model de antrenare) cuplul (x,d),
unde x reprezint vectorul de nvare de intrare n RNA, iar d reprezint vectorul de ieire, de
nvare, dorit (corespunztor lui x) al RNA.
Eroarea global de nvare (de antrenare, de instruire) este dat de relaia:
P

E = E < p>

(8)

p =1

unde:
P - numrul vectorilor de antrenare;
E<p> reprezint eroare medie ptratic de nvare, atunci cnd reelei neuronale i se
prezint vectorul de nvare (x<p>,d<p>) i este dat de relaia:
8

E < p> =

1 < p>
d
a < p>
2

1 N2 < p>
d i ai< p>
2 i =1

1 N2 < p>
d i Fa yi< p>
2 i =1

))

(9)

unde:
N2 numrul de neuroni din stratul de ieire
di ieirea dorit pentru neuronul i din stratul de ieire
ai activarea neuronului i din stratul de ieire (ieirea curent (real) a neuronului i)
yi intrarea total a neuronului i din stratul de ieire care conform relaiei (1) se poate
exprima prin:
N1

N1

j =1

j =1

yi = ij x j + i = ij a j + i

(10)

unde:
N1 numrul de neuroni din stratul ascuns;

ij reprezint ponderea dintre neuronul j din ultimul strat ascuns i neuronul i din
stratul de ieire;

xj reprezint intrarea j a neuronului i din stratul de ieire care nu reprezint


altceva dect activarea (aj) neuronului j din ultimul strat ascuns;

i reprezint ponderea intrrii de ofset a neuronului i din stratul de ieire.


Regula Delta gsete valorile tuturor ponderilor care minimizeaz funcia de eroare folosind
metoda gradientului descresctor. Astfel ponderile vor fi modificate proporional cu derivata
erorii n sens invers, msurat pe vectorul curent de antrenare n raport cu fiecare pondere:

ij< p > (k + 1) = ij< p > (k ) + ij< p > = ij< p > (k ) + grad E < p > =

E < p >
= ij< p > (k ) +

ij

ij

(11)

Expresia derivatei erorii n funcie de ponderi va avea diferite expresii n funcie de poziia
ponderilor i j, adic, ntre ce straturi de neuroni se afl ponderile respective.
Not: Pentru a simplifica exprimarea se va face urmtoarea convenie: ponderile dintre dou
straturi consecutive se vor considera ca aparinnd stratului de neuroni pe care-l preced ponderile.
De exemplu, ponderile dintre neuronii dintre ultimul strat ascuns i cel de ieire vor fi referite ca
ponderile stratului de ieire.

Actualizarea ponderilor stratului de ieire

n continuare se va dezvolta termenul E<p>/ i j considernd ponderile ij ca fiind ale stratului


de ieire (Figura 10):

E < p > E < p > yi< p > E < p > N1


ik a k + i =
= < p>
= < p>
ij
yi
ij
yi ij k =1

E < p > < p >


a j = i< p > a <j p > = a <j p > i< p >
< p>
yi
9

E < p >
= a <j p > i< p > ,
ij

i = 1, N 2 , j = 1, N1

(12)

unde NL reprezint numrul de neuroni din stratul ascuns.

Figura 10 Explicativ pentru actualizarea ponderilor din stratul de ieire

Variaia erorii n funcie de intrarea total (yi<p>) a neuronului i din stratul de ieire se poate scrie:

i< p >

E < p > E < p > ai< p >


= < p> = < p> < p>
yi
ai
yi

(13)

Utiliznd relaia (1.4) relaia (1.8) devine:

i< p > =

E < p > E < p > ai< p > ai< p > 1 N 2 < p >
d k ak< p >
= < p> < p> = < p>
< p>
yi
ai yi
yi ai 2 k =1

i< p >

) =
2

< p>
(ai )
ai< p > 1
< p>
< p>
< p>
< p > a i
=

2
i
i
i
i
ai
y i< p >
y i< p > 2

di< p >

ai< p >

ai< p >
yi< p >

(14)

Folosind relaia (14) relaia (12) devine:


ai< p >
E < p >
= a <j p > d i< p > ai< p >
, i = 1, N 2 , j = 1, N1
ij
yi< p >

(15)

unde aj reprezint activarea neuronului j din stratul ascuns (strat ce precede stratul de ieire).
Astfel ponderile stratului de ieire vor fi actualizate adugnd la vechea valoare, valoarea dat de
relaia:
ij< p > = gradij E < p > =

= a <j p > d i< p > ai< p >

E < p >
= a <j p > i< p > =
ij

ai< p >

) y

< p>
i

10

(16)

Actualizarea ponderilor stratului ascuns

n continuare se va dezvolta termenul E<p>/ij considernd ponderile ij ca fiind ale stratului


ascuns (Figura 11):

E < p > E < p > yi< p > E < p > N 0


ik a k + i =
= < p>
= < p>
ij
ij
yi ij k =1
yi

E < p > < p >


a j = i< p > a <j p > = a <j p > i< p >
yi< p >

E < p >
= a <j p > i< p > ,
ij

i = 1, N1 , j = 1, N 0

(17)

unde N0 reprezint numrul de neuroni din stratul de intrare.

Figura 11 Explicativ pentru actualizarea ponderilor din stratul ascuns

Variaia erorii n funcie de intrarea total (yi<p>) a neuronului i din stratul ascuns se poate scrie:

i< p >

E < p >
y i< p >

< p>
E < p > ai
=

ai< p > y i< p >

(18)

Prin dezvoltarea termenului E<p>/ai<p> se obime:


E < p > E < p > ai< p > N 2 E < p > y k< p > ai< p >

=
=
=
yi< p > ai< p > yi< p > k =1 y k< p > ai< p > yi< p >
N 2 E < p >
a < p > a < p > N 2 E < p >
a < p > N 2
= < p > ki i< p > = i< p > < p > ki = i< p > k< p > ki
y i
y i
k =1
k =1 y k
k =1 y k
y i

i< p > =

i< p > =

ai< p > N L+1 < p >


k ki
yi< p > k =1

(19)

unde

11

k< p > =
=

E < p > E < p > a k< p > a k< p > 1 N 2 < p >
d h ah< p >
=
=
y k< p > ak< p > y k< p > y k< p > a k< p > 2 h=1

a
y

< p>
k
< p>
k

< p>
k
< p>
k

(a
1
2 d k< p > ak< p >
a
2

k< p > = d k< p > ak< p >

= d k< p > a k< p >

)ay

< p>
k
< p>
k

) ay

) =
2

< p>
k
< p>
k

(20)

Astfel ponderile stratului L vor fi actualizate adugnd la vechea valoare, valoarea dat de relaia:
ij< p > = grad ij E < p > =

E < p >
= a <j p > i< p >
ij

(21)

unde termenul i<p> este dat de relaia (19).


4.3. Procedur iterativ pentru antrenarea RNA cu un singur strat ascuns utiliznd regula
Delta generalizat

Dndu-se un numr P de vectori de antrenare aranjai n urmtorul set de vectori de antrenare


{(x<1> , d<1> ), ,(x<P> , d<P> ) }

unde
x<p> = (x1<p> , , xN 0<p> )
d<p> = (d1<p> , , dN e<p> ),
p[1,P]
Ne - numrul de neuroni din stratul de ieire
Pas 1 Se alege valoarea pentru factorul de nvare 0 < < 1, valoarea admisibil a erorii > 0
precum i funcia de activare (Fa(.)) a neuronilor din stratul ascuns i cel de ieire.
Pas 2 Ponderile i j sunt iniializate cu valori mici aleatoare, se seteaz k = 1, i se iniializeaz
eroarea global E = 0.
Pas 3 Antrenarea ncepe din acest pas. Un model (vector) intrare/ieire de antrenare (x<p>, d<p>)
este prezentat RNA i se calculeaz ieirea

a<p> = (a1<p> , , aN e<p> ),

unde

ai< p >

Fa yi< p >

Nh < p> < p>

= Fa i j a j + i =
j =1

Nh < p> N0 < p> < p>

= Fa ij Fa j ,k a k + j + i

j =1

k =1

i = 1,, Ne,
Ne numrul de neuroni din stratul de ieire,
12

Nh numrul de neuroni din stratul ascuns,


N0 numrul de neuroni din stratul de intrare,
Pas 4 Se calculeaz eroarea global adugnd eroarea ptratic curent (E<p>) la E

E=E+E

< p>

1 Ne < p>
= E + di
ai< p >
2 i =1

Pas 5 Pornind de la stratul de ieire spre stratul de intrare se actualizeaz ponderile dintre straturi.
Indicele h lund valori descresctoare de la valoarea L+1 spre valoarea 1 se calculeaz

ij< p > (k + 1) = ij< p > (k ) + ij< p > = ij< p > (k ) + a <j p > i< p >
< p>

unde i

este dat de urmtoarele relaii:

i< p > = d i< p > ai< p >


i< p >

ai< p >

Ne

)ay

< p>
i
< p>
i

<j p > <j ip > ,


< p>
yi
j =1

, i = 1, N e , pentru stratul de ieire


i = 1, N h , pentru stratul ascuns

Pas 6 Dac k <P atunci k= k + 1 salt la pasul Pas 3, altfel se continu cu pasul Pas 7
Pas 7 Este complet un ciclu de antrenare (cunoscut n literatura de specialitate i sub denumirea
de epoc). Dac E < atunci se ncheie antrenarea. Dac E > atunci E este setat la valoarea 0
i se iniiaz o nou epoc de antrenare printr-un salt la pasul Pas 3.

13

5 MEMORII ASOCIATIVE
5.1. Definiii
5.1.1. Distana Hamming

n general, un spaiu Hamming n-dimensional poate fi definit prin mulimea:


Hn = {x = (x1, x2, xn)t Rn xi {-1,1}, i = 1n}. (1)
Cu alte cuvinte, spaiul Hamming n-dimensional este mulimea vectorilor n-dimensionali,
elementele vectorilor fiind numere reale supuse condiiei ca fiecare element sa aib valori din
mulimea {-1,1}. Acest spaiu
n Figura 1 este prezentat spaiul Hamming tridimensional are 23 puncte, toate fiind echidistante
fa de originea spaiului Euclidian., fiind cunoscut i sub numele de cubul tridimensional
Hamming.

Figura 1 Cubul Hamming pentru cazul tridimensional

n continuare se va defini distana Hamming i se va prezenta relaia de legtur dintre aceasta i


distana Euclidian.
Fie vectorii x = (x1, x2, xn)t i y = (y1, y2, yn)t din spaiul Euclidian n-dimensional, cu
restricia ca xi i yi {1}, astfel vectocii x i y sunt i n spaiul Hamming n-dimensional.
Distana Euclidian dintre cei doi vectori este
d=

(x1 y1 )2 + (x2 y2 )2 + ... + (xn yn )2

(2)

Dac xi, yi {1} atunci (xi - yi)2 {0,4}:


0, xi = yi
4, xi yi

(xi yi )2 =

(3)

Astfel, distana euclidian poate fi scris ca


d = 4 (nr. de componente diferite dintre x i y ) (4)

Se va defini distana Hamming ca


h = nr. de componente diferite dintre x i y
14

(5)

Relaia de legtur dintre distana Euclidian i distana Hamming este


d = 2 h (6)

sau
h=

d2
4

(7)

5.1.2 Tipuri de memorii asociative

Fie setul de perechi de vectori {(x1,y1),( x2,y2),( xN,yN)} (xiRn, yiRm) care exprim o asiciere
corect. Aceti vectori poart numele de vectori exemplari (similari cu vectorii de antrenare
folosii n cazul reelelor neuronale feedforward).
Se disting trei tipuri de memorii asociative:
-

memoria heteroasociativ asigur transformarea (xi) = yi, cu proprietatea: dac vectorul x


se afl la distana cea mai mic de vectorul xi fa de toi ceilali vectori xj, j = 1, N , atunci
(x)=yi;

memoria asociativ cu interpolare asigur transformarea (xi) = yi, cu proprietatea: dac


vectorul de intrare difer de unul din vectorii exemplari cu vectorul d, x=xi + d, atunci
vectorul de ieire va diferi de unul din vectorii exemplari printr-un vector e:
(x) = (xi + d) = yi + e;

(8)

memoria autoasociativ n cazul acestui tip de memorie, intre vectori de intrare i ieire
exist relaia xi = yi, astfel memoria asigur transformarea (xi) = xi cu proprietatea: dac
vectorul x se afl la distana cea mai mic de vectorul xi fa de toi ceilali vectori xj,
j = 1, N , atunci (x)=xi.

5.2. Memorii asociative bidirecionale (MAB)


5.2.1 Structura memoriei asociative bidirecional (MAB)

O reea neuronal de tip MAB (Figura 1) const din dou straturi (x i y) de neuroni (artificiali)
cu interconectare total, fiecare neuron (unitate de procesare) putnd s aib sau nu o conexiune
sau legtur de la ieirea la intrarea sa. Legturile dintre cele dou straturi sunt bidirecionale.

Figura 1 Structura general a MAB

O caracteristic important a reelelor neuronale de tip MAB este dat de faptul c matricea de
ponderi poate fi calculat a priori dac sunt cunoscui vectorii exemplari (vectorii memorai de
15

MAB). Astfel, dac se consider un set de N perechi de vectori exemplari care se doresc a fi
memorai, se poate construi matricea:
w = y 1 x 1 t + y 2 x 2 t + + y Nx Nt

(9)

care reprezint matricea de ponderi corespunztoare conexiunilor de la stratul x la stratul y. De


exemplu w12 reprezint ponderea conexiunii primului neuron din stratul x cu al doilea neuron din
stratul y. Matricea de ponderi corespunztare conexiunilor de la stratul y la stratul x se
construiete simplu, considernd transpusa matricii de ponderi de la stratul x la stratul y, adic wt.
n cazul unei memorii autoasociative matricea de ponderi se construiete cu ajutorul urmtoarei
relaii matematice:
w = x 1 x 1 t + x 2 x 2 t + + x Nx Nt

(10)

n acest caz, matricea de ponderi este ptratic i simetric.


5.2.2 Procesarea n MAB

16

5.2.3 Formalismul matematic al MAB

17

18

19

5.2.4 Funcia de energie a MAB

20

21

22

23

5.3. MEMORIA HOPFIELD

5.3.1. Memoria Hopfield discret

24

25

26

5.3.2. Memoria Hopfield continu

27

28

1
E=
2

j
i j

1
Tij vi v j +
2

1
Ri

vi

gi1 (v )dv I i vi
i
i
0

29

(4.25)

30

REEAUA CARPENTER-GROSSBERG
1. Prezentare general

Reeaua Carpenter-Grossberg mai este cunoscut sub denumirea de ART (Adaptive Resonance
Theory) i este o reea de clasificare cu antrenare nesupervizat. Vectorii de intrare sunt
clasificai n funcie de forma stocat cu care seamn cel mai bine.
Reeau ART poate crea adaptiv un nou neuron corespunztor unui vector de intrare dac s-a
determinat c acest vector de intrare este suficient de diferit fa de grupurile de vectori
memorai de RNA. Acest mecanism de determinare a asemnrii unui vector de intrare cu o
form memorat, numit test de vigilen este ncorporat n reeaua neuronal. Astfel, arhitectura
ART permite utilizatorului s controleze gradul de similaritate al formelor plasate n acelai grup
de forme.
n Figura 1 este prezentat configuraia simplificat a arhitecturii ART.

Figura 1 Configuraia simplificat a arhitecturii ART

2. Dilema stabilitate-plasticitate

Creierul uman are abilitatea de a nva i memora multe lucruri noi fr a fi necesar s fie uitate
informaii deja memorate (de exemplu: tiu s ma dau pe biciclet; dac nv s m car nu
nseamn c trebuie s uit cum m dau pe biciclet). Pentru a proiecta o main cu adevrat
inteligent pentru recunoaterea formelor, compatibil cu creierul uman, va fi de dorit s prezinte
aceast abilitate a creierului uman.
Multe din metodele ntlnite n cazul reelor neuronale tind s uite informaia anterioar dac
ncearc s stocheze noi pattern-uri n mod incremental. Odat antrenate aceste reele nu permit
modificarea parametrilor sau a ponderilor.
Capacitatea unei RNA de a nva bine o nou form n orice stadiu al operrii (funcionrii) este
numit plasticitate.
31

Grossberg descrie dilema stabilitate-plasticitate n felul urmtor :


Cum poate fi proiectat un sistem cu nvare s ramn plastic sau adaptiv, ca rspuns la
evenimentele semnificative i de asemenea s rmn stabil la evenimentele irelevante? Cum tie
sistemul s aleag ntre modul stabil i cel plastic pentru a obine stabilitate fr haos? n
particular, cum poate sistemul s conserve informaiile anterior nvate n timp ce continu s
nvee noi lucruri? Cum poate preveni ca o nou nvare s tearg din memorie informaii
nvate anterior?
3. Arhitectura ART1. Funcionarea de baz

Figura 2 Arhitectura general ART

Exist dou tipuri de arhitecturi ART: ART1 i ART2. Intrrile reelei ART2 au valori reale (ex.
nivele de gri ale pixelilor unei imagini). Intrrile reelei ART1 au valori binare. n continuare se
va prezenta arhitectura i funcionarea reelei ART1.
Dup cum se poate observa i din Figura 2, reeaua ART este alctuit din 2 subsisteme:
subsistmul atenionare i subsistemul de orientare. Subsistemul atenional determin dac forma
de intrare se potrivete cu una dintre formele nvate de RNA. Dac apare o potrivire, se
stabilete rezonana. Subsistemul de orientare este responsabil de sesizarea diferenelor dintre
formele ce sosesc ascendent i descendent pe stratul de comparaie.
Arhitectura ART1 are n componena sa dou straturi de neuroni: stratul de comparaie i stratul
de recunoatere. Decizia de clasificare este indicat de activarea unui singur neuron din stratul de
recunoatere. Neuronii din stratul de comparaie rspund la trsturile formei de intrare analog
grupurilor de celule dintr-o zon a cortexului cerebral. ntre cele dou straturi (de comparaie i
de recunoatere) exist dou seturi de ponderi. Primul set de ponderi ce leag ieirile tuturor
neuronilor din stratul de comparaie de intrrile tuturor neuronilor din stratul de recunoatere.
Aceste ponderi au valori reale. Cel de-al doilea set de ponderi leag ieirile neuronilor din stratul
de recunoatere de intrrile neuronilor din stratul de comparaie. Aceste ponderi au valori binare.
Pentru modificarea celor dou seturi de ponderi se utilizeaz 2 reguli diferite de antrenare.
Neuronii din stratul de recunoatere sunt interconectai prin intermediul unor conexiuni inhibitorii
permind astfel implementarea mecanismului de competiie ntre neuoni.
32

Rspunsul stratului de recunoatere (Figura 3) la un vector de intrare este comparat cu rspunsul


stratului la vectorul original (memorat) cu ajutorul unui mecanism numit vigilen sau toleran.
Vigilena ofer o msur a distanei dintre vectorul de intrare i grupul cluster de vectori
memorai care activeaz acelai neuron din stratul de recunoatere. Cnd vigilena este mai mic
dect un prag prestetat, trebuie s fie creat un nou grup cluster, o nou categorie de vectori i, n
acest nou grup (cluster) va fi stocat vectorul de intrare. Astfel va fi alocat un nou neuron n stratul
de recunoatere pentru noua categorie de vectori asociat vectorului (formei) de intrare.

Figura 3 Stratul de recunoatere al arhitecturii ART

Stratul de recunoatere utilizeaz paradigma nvingtorul ia tot (aceast comportare este


referit n unele lucrri sub numele de MAXNET). Dac vectorul de intrare trece testul de
vigilen, atunci neuronul nvingtor va fi antrenat n aa fel nct centrul grupului de vectori
considerai a fi similari asociat acestui neuron se va muta, n spaiul trsturilor, nspre trsturile
vectorului de intrare.
Stratul de comparaie mai este referit ca stratul F1 i reprezint un strat ascendent.
Stratul de recunoatere mai este referit ca stratul F2 i reprezint un strat descendent.
Fiecare neuron din stratul de recunoatere are asociat un vector de ponderi. Exemplu: neuronul j
(j=1,...,n) are ataat vectorul de ponderi Bj. Acest vector reprezint o form (vector) exemplar
corespunztoare unei categorii de forme de intrare. Fiecare neuron primete ca i intrare ieirea
stratului de comparaie (vectorul C) prin intermediul vectorului de ponderi corespunztor
(neuronul j din stratul de recunoatere primete la intrare ieirea stratului de comparaie prin
intermediul vectorului de ponderi Bj ). Ieirea neuronului j din stratul de recunoatere este dat
de:
m

y j = bij a yi
r

(1)

i =1

a yj

1, daca y j r > y i r pentru i diferit de j


= f (y j ) =
0, altfel
r

Unde ayic = ieirea neuronului i din stratul de comparaie


f = funcie treapt
33

(2)

m = numrul de neuroni din stratul de comparaie


Aa cum se observ n figura urmtoare, fiecare neuron i din stratul de comparaie primete
urmtoarele trei intrri:
1). O component a formei de intrare x, de exemplu xi
2). Semnalul de ctig, G1, care este un scalar (o valoare binar); deci aceeai valoare intr n
fiecare neuron
3). Un semnal feedback de la stratul de recunoatere care este o sum ponderat a ieirilor
stratului de recunoatere. Semnalul de feedback Pi, prin intermediul ponderilor binare tij este dat
de:
n

Pi = t ji a yi , pentru i = 1,...,m
r

(3)

j =1

unde ayjr este ieirea celui de-al j-lea neuron al stratului de recunoatere.
n = numrul de neuroni din stratul de recunoatere.

Figura 4 Stratul de comparaie al arhitecturii ART

n Figura 4, Tj este vectorul de ponderi asociat cu neuronul j din stratul de recunoatere. Vectorul
ayC reprezint ieirea stratului de comparaie, ay c reprezentnd ieirea neuronului i.
i

Ctigul 1 (G1) este 1 atunci cnd vectorul ayr este zero i atunci cnd SAU- logic ntre
componentele vectorului de intrare X este 1, dup cum se poate vedea n ecuaia:
r

G1 = (a y1 a y 2 K a yn )( x1 x 2 K x m )

(4)

Ctigul 2 (G2) este 1 cnd SAU- logic ntre componentele vectorului de intrare X este 1,
dup cum se poate vedea n ecuaia:
G2 = ( x1 x 2 K x m )

34

(5)

Stratul de comparaie utilizeaz o regul de genul dou treimi care susine c, dac dou din trei
intrri sunt 1, atunci ieirea este 1. Altfel rezultatul este 0. Ecuaia urmtoare arat regula dou
treimi:
0, pentru G1 + x j + Pj < 2
C
a yj =
1, pentru G1 + x j + Pj 2

(6)

Procesul ART apare n mai multe faze. La nceput nu este nici o intrare, deci din ecuaia (5)
putem observa c G2 este zero. Cnd un vector de intrare care apare n Figura 4 i n Figura 5. ca
X este prezentat pentru prima dat reelei, reeaua intr n faza de recunoatere. Vectorul ayrde
feedback din stratul de recunoatere, este ntotdeauna pus pe zero la nceputul fazei de
recunoatere. Bazndu-ne pe ecuaiile (4) i (5), putem observa c prezentarea vectorului X n
aceast faz pune att pe G1 ct i pe G2 pe 1. Aa cum se poate vedea din condiiile iniiale ale
fazei de recunoatere, ieirea ayC a stratului de comparaie va fi vectorul de intrare X
nemodificat. Deci stratul de comparaie trece vectorul X prin el spre stratul de recunoatere, aa
cum se observ n Figura 5.
Dup aceea, fiecare neuron din stratul de recunoatere calculeaz un produs ntre vectorul su de
ponderi Bj (ce are o valoare real) i vectorul ayC (care este ieirea stratului de comparaie).
Vectorul ctigtor inhiba toi ceilali neuroni ai stratului de recunoatere (a se ine cont de
inhibiiile laterale din Figura 3). Aadar o singur component ayjr a vectorului ayr va fi 1 i
toate celelalte componente ale acestui vector vor fi 0. Acest lucru iniiaz faza de comparaie.
Cu alte cuvinte, faza de recunoatere are ca efect compararea fiecrui neuron din stratul de
recunoatere, de fapt a prototipului su (stocat n ponderile de jos n sus) cu forma aplicat la
intrare (produsul dintre Bj i ayC ). Mecanismul de inhibare mutual determin ca cel cu potrivirea
cea mai bun s se activeze.
n timpul fazei de comparaie trebuie determinat dac o form aplicat la intrare este suficient de
asemntoare cu nvingtorul(winner-ul) stocat, pentru a fi asimilat prototipului acestuia. n
timpul acestei faze este fcut, practic, testul de vigilen.
n faza de comparaie, vectorul ayr nu mai este zero, deci G1 va fi zero. Dup regula 2/3, numai
neuronii care au simultan 1 n vectorul X i n vectorul P se vor activa. Am reinut faptul c
ponderile tij sunt valori binare. Acest feedback de sus n jos foreaz apoi componentele lui ayC s
fie zero de fiecare dat n care vectorul de intrare X nu se potrivete cu forma memorat.

35

Figura 5 Operaiile ART: pasul 1. G1 = 1.Vectorul de intrare este trecut prin intermediul stratului de
comparaie, stratului de recunoatere

Figura 6 Operaiile ART: pasul 2. Cel mai bun neuron al stratului de recunoatere
a fost ales ctigtor. El trimite semnalul su napoi prin stratul de comparaie, prin
intermediul ponderilor sus-jos

S presupunem c D este numrul valorilor de 1 din vectorul X i K numrul valorilor de 1


din vectorul ayC . Atunci raportul de asemnare (similaritate) este S = K/D.
Vectorul de asemnare S este deci o msur a asemnrii prototipului cu forma de intrare.
Acum trebuie s stabilim un criteriu dup care s accepte sau s resping clusterele, folosind
aceast metric. Testul de vigilen poate fi reprezentat astfel:
S > => test de vigilen trecut
S => test de vigilen picat
Dac e trecut testul de vigilen, atunci nu exist o diferen substanial ntre vectorul de intrare
i prototipul ctigtorului. Deci aciunea ce va fi executat va fi doar stocarea vectorului de
intrare n centrul clusterului neuronului ctigtor.

36

n acest caz nu avem un semnal de reset. De aceea atunci cnd ncepe faza de cutare, ponderile
pentru acest vector de intrare sunt actualizate. n acest moment, funcionarea reelei este
complet.
Dac S este mai mic dect un prag prestabilit, nivelul de vigilen , atunci forma P nu este
suficient de asemntoare cu centrul clusterului neuronului ctigtor i neuronul va trebui
inhibat. Inhibarea neuronului o realizeaz blocul de reset, care reseteaz ieirea /activarea
neuronului curent pe tot parcursul clasificrii curente (vezi Figura 7). Astfel se ncheie faza de
comparaie.
Se ncepe faza de cutare i dac nu a fost generat nici un semnal de reset, potrivirea e
considerat ca fiind adecvat i procesul de clasificare e complet. Astfel, cu neuronul stratului R
care fusese activat, acum fiind dezactivat, vectorul R (ayr) este nc o dat pus pe zero. Drept
urmare, G1 trece n 1 deci X apare nc o dat pe stratul C (ayC) i un alt neuron al stratului de
recunoatere va iei nvingtor. Noul ctigtor este supus testului de vigilen ca mai nainte i
procesul se repet pn cnd fie este gsit un neuron care s se potriveasc intrrii X cu o
asemnare mai mare dect nivelul de vigilen (S > ). Vectorii de pondere Tj i Bj ai neuronului
ctigtor sunt actualizai, fie au fost ncercate toate formele stocate. Apoi un nou neuron anterior
nealocat este asociat cu forma de la intrare i Tj i Bj sunt setate astfel nct s se potriveasc
formei de la intrare.

Figura 7 Operaiile ART: pasul 3. Vectorul de intrare X i vectorul P din


stratul de recunoatere sunt comparai. Testul de vigilen nu a fost trecut. De
aceea este inhibat neuronul ctigtor prin mecanismul de reset.

37

Figura 8 Operaiile ART: pasul 4. nvingtorul anterior rmne dezactivat. Vectorul de intrare este
prezentat din nou stratului de recunoatere (G1 = 1) i un nou ctigtor va fi selectat.

4. Algoritmul de antrenare ART1

La nceput ponderile bij sunt iniializate la aceeai valoare mic calculat astfel:
bij < L / (L - 1 + m)

(7)

unde m = numrul de componente ale vectorului X i L o constant (de obicei L = 2).


Pasul 1. Cnd o form de intrare X este prezentat reelei, stratul de recunoatere selecteaz
nvingtorul ca fiind ieirea cea mai mare a reelei.
n

y j = bij a yi

(8)

i =1

Pasul 2. Se face testul de vigilen. Un neuron j a trecut testul dac i numai dac:
n

y j / xi > ,

(9)

i =1

unde = pragul de vigilen.


Pasul 2a). Dac nvingtorul nu trece testul de vigilen, se dezactiveaz (se pune pe zero) i se
merge la pasul 1 pentru a selecta alt nvingtor.
Pasul 2b). Se repet ciclul (pasul 1 pn la 2a) pn este gsit un nvingtor care trece testul de
vigilen, apoi se trece la pasul 4.
Pasul 3. Dac nici un neuron nu a trecut testul de vigilen, se creeaz un nou neuron pentru
stocarea noii forme.
38

Pasul 4. Se ajusteaz ponderile feedforward pentru neuronul ctigtor/ nvingtor. Se


actualizeaz ponderile feedback de la neuronul nvingtor ctre intrrile sale.
Ecuaiile care actualizeaz ponderile de jos n sus i de sus n jos sunt urmtoarele:
bij = (L ayiC ) / (L 1 +
tij = ayiC
unde ayiC este neuronul i din stratul de recunoatere.

39

aykc)

(10)
(11)

LOGICA FUZZY
1. NOIUNI DE LOGIC FUZZY
1.1. Introducere

40

1.2. Definiii

41

42

43

44

2. STRUCTURA GENERAL A UNUI SISTEM FUZZY

Structura general a unui sistem fuzzy cu n intrri i m ieiri este prezentat n Figura 1.

Figura 1 Structura general a unui sistem fuzzy

Din Figura 1 se observ c un sistem fuzzy este format din patru blocuri principale: blocul de
fuzzyficare, blocul de decizie, baza de reguli i blocul de defuzzyficare.
Blocul de fuzzificare este responsabil de transformarea intrrilor crisp n mulimi fuzzy.
Baza de legi conine setul de legi lingvistice de forma DAC...ATUNCI... definite pe variabilele
lingvistice fuzzy. Ea conine informaii despre universul de discurs al variabilelor precum i,
informaii despre mulimile fuzzy ataate valorilor lingvistice ale variabilelor fuzzy.
Blocul de decizie este rspunztor de, determinarea influenei fiecrei legi n concluzia final
precum, i de generarea concluziei finale a sistemului fuzzy. Concluzia final va fi o valoare
fuzzy n cazul n care sistemul fuzzy are o singur ieire i, va fi un vector de valori fuzzy, dac
sistemul fuzzy va avea mai multe ieiri (fiecare element al acestui vector va corespunde unei
singure ieiri a sistemului fuzzy).
Blocul de defuzzificare are rolul de a converti concluzia fuzzy final ntr-o valoare real (crisp)
sau ntr-un vector de valori reale n funcie de numrul de ieiri pe care le are sistemul fuzzy.
Valoarea/vectorul de valori crisp obinut/obinut va reprezenta comanda/vectorul de comand
pentru procesul condus.
2.1 Variabile, valori i reguli lingvistice

2.1.1 Universul de discurs (de variaie)

Intrrile sistemul fuzzy sunt notate cu xi ( i = 1, n ), unde xi Xi, iar ieirile sunt notate cu yj
( j = 1, m ), unde yj Yj. Intrrile i ieirile sunt valori crisp (numere reale) i nu mulimi fuzzy.
Mulimile Xi ( i = 1, n ) respectiv Yj ( j = 1, m ) reprezint domeniile de variaie pentru variabilele xi
respectiv yj. n literatura de specialitate domeniul de variaie al unei variabile mai poart numele
de universul de discurs al variabilei respective. n practic, universul de discurs al unei variabile
este mulimea numerelor reale dar din considerente tehnice el se restricioneaz la intervale
continue finite.
45

2.1.2 Variabile lingvistice

Dup cum se va vedea mai trziu, n aceast seciune, expertul uman va utiliza o descriere
lingvistic a regulilor ce vor forma baza de reguli. Din aceast cauz, pentru descrierea intrrilor
i ieirilor sistemului fuzzy, se vor utiliza variabile lingvistice. O variabil lingvistic ataat
unei intrri sau ieiri a sistemului fuzzy este o descriere simbolic (folosind cuvinte ale limbajului
uman) a ceea ce reprezint valorile reale variabile n timp ce apar la intrarea/ieirea respectiv a
sistemului fuzzy.
Pentru descrierea intrrii xi a sistemului fuzzy din Figura 1 se va utiliza variabila lingvistic
xi iar, pentru ieirea yj se va utiliza variabila lingvistic notat cu ~
yj .
notat cu ~
Exemplu:
Pentru regulatorul fuzzy, utilizat de un sistem de reglare automat a iluminrii pe suprafaa unui birou
(planul de lucru), s-au ales ca intrri eroarea de reglare, notat cu e, i variaia erorii de reglare, notat
cu e. Pentru aceste dou intrri sau ataat variabilele lingvistice ~
e = eroarea de reglare i
~
e =variaia erorii de reglare. Ieirea regulatorului fuzzy este variaia comenzii u. Pentru ieire s-a
ataat variabila lingvistic u~ = variaia comenzii.
Exemplu:
Pentru cazul unui sistem de estimare a preului unui laptop se consider intrrile: anul de fabricaie,
notat cu a, i dotrile laptopului, notate cu d. Ieirea sistemului fuzzy este preul laptopului notat cu p.
~ = anul de fabricaie,
Pentru aceste variabile de intrare/ieire se pot ataa variabilele lingvistice: a

~
d = dotri laptop i ~
p = pre laptop.

2.1.3 Valori lingvistice

Simiar cu variabilele crisp xi i yj, care iau diferite valori din domeniile de variaie Xi i Yj, i
xi i ~
y j vor lua diferite valori lingvistice ce vor fi utilizate pentru a
variabilele lingvistice ~
descrie caracteristicile variabilelor.
~
Se va nota cu X ik valoarea lingvistic k a variabilei lingvistice ~
xi definit pe domeniul X i . Dac
se consider c exist mai multe valori lingvistice definite pe X i atunci variabila ~
xi va lua valori
din mulimea de valori lingvistice notat cu:
~
~
X i = X ik : k = 1, 2, ..., N i ,

unde Ni reprezint numrul de valori lingvistice ale variabilei lingvistice ~


xi .
~
n mod similar pentru variabilele lingvistice de ieire notaia Y jl semnific valoarea lingvistic l a
variabilei lingvistice ~
y definit pe domeniul Y . Dac se consider c exist mai multe valori
j

lingvistice definite pe Yj atunci variabila ~


y j va lua valori din mulimea de valori lingvistice
notat cu:
~
~
Y j = {Y jl : l = 1, 2, ..., M j } ,
46

unde Mj reprezint numrul de valori lingvistice ale variabilei lingvistice ~


yj .
Valorile lingvistice sunt n general termeni descriptivi cum sunt: mare, mic, mediu, lung,
scurt, slab, pozitiv mediu, zero, negativ mare.
Exemplu:
Se presupune c ~
x1 descrie variabila lingvistic iluminare. Astfel dac se ataeaz valorile lingvistice

~
~
~
~
~ ~ ~
X 11 =slab, X 12 =standard, X 13 =mare atunci ~
x1 va avea valori n mulimea X 1 = X 11 , X 12 , X 13 .

Exemplu:
n cazul sistemului fuzzy de estimare a preului unui laptop considerm c, lingvistic, preul laptopului

poate fi caracterizat prin: mic, rezonabil i mare. Astfel putem ataa valorile lingvistive: P1 =

~
~
p va avea valori n
mic, P 2 = rezonabil i P 3 = mare. n acest caz variabila lingvistic ~
~

{~

mulimea P = P1 , P 2 , P 3 . n practic, cnd numrul de valori lingvistice ataate unei variabile


lingvistice este mic, se prefer notarea intuitiv a acestor valori, pentru citirea mai uoar de ctre
expertul uman a tabelelor de reguli. Astfel n cazul acestui exemplu cele trei valori lingvistice se pot nota:
Mi = mic, R = rezonabil i Ma = mare, astfel mulimea valorilor lingvistice este:

~
P = {Mi, R, Ma} .

2.1.4 Reguli lingvistice

Funcia ce leag intrrile de ieirile sistemului fuzzy este caracterizat de un set de reguli de
tipul condiieaciune sau n forma modus ponens (DAC...ATUNCI...)

DAC premiz ATUNCI consecin.

(1)

De obicei, intrrile sistemului fuzzy sunt asociate cu premize, iar ieirile, sunt asociate cu
consecine. Aceste reguli DAC...ATUNCI... pot fi reprezentate n multe forme. n continuare
vor fi prezentate doar dou forme standard:
- forma multe-intrri multe-ieiri cunoscut n literatura de specialitate sub denumirea de forma
MIMO (Multi-Input Multi-Output)
~
~
~
DAC ~
x1 este X 1j i ~
x2 este X 2k i ... i ~
xn este X nl
~
~
~
ATUNCI ~
y1 este Y1 p i ~
y 2 este X 2r i ... i ~
xm este X ms ;

(2)

- forma multe-intrri o singur -ieire cunoscut n literatura de specialitate sub denumirea de


forma MISO (Multi-Input Single-Output)
~
~
~
DAC ~
x1 este X 1j i ~
x2 este X 2k i ... i ~
xn este X nl
~
ATUNCI ~
y q este Yq p .

(3)

2.1.5 Mulimea fuzzy i conectori i operatori fuzzy


2.1.5.1 Mulime fuzzy
47

Pentru a fi n concordan cu notaiile din seciunile precedente vom considera urmtoare form
de definire a unei mulimi fuzzy.
~
xi cu valoarea lingvistic X ik definit pe universul de
Dac se consider variabila lingvistic ~
discurs X i , i funcia de apartenen X k (xi ) definit pe X i cu valori n [0,1], atunci, mulimea
i

k
i

fuzzy notat cu X se definete prin setul de perechi


X ik = {( xi , X k ( xi )) : xi X i} .

(4)

Exemplu:
Se consider variabila crisp iluminarea msurat n planul de lucru notat cu x1 . Se va ataa variabila

x1 = iluminare cu valoarea lingvistic X 11 = slab. n acest caz X 11 este o mulime fuzzy


lingvistic ~
a crei funcie de apartenen descrie gradul de certitudine ca valoarea numeric a iluminrii msurate

la momentul de timp t ( x1 (t ) X 11 ) s posede proprietatea caracterizat de X 11 .

2.1.5.2 Conectori i operatori ai mulimilor fuzzy

Diferitele cerine de tratare a informaiei vagi necesit existena unor conectori lingvistici
(cuplori) ai termenilor lingvistici prin care se caracterizeaz mulimile fuzzy. Rezolvarea
matematic (evaluarea) a conexiunilor se bazeaz pe utilizarea unor operatori adecvat definii;
corespunztor, regulile de aciune a operatorilor sunt specifice teoriei mulimilor fuzzy.

Conectorul I (operatorul I)

Corespunde interseciei mulimilor fuzzy (definit n subcapitolul Noiuni de logic fuzzy) cu


funciile de apartenen 1, 2, definite pe acelai univers de discurs X i se evalueaz (de
exemplu) prin operatorul minimum (MIN).
Conectorul SAU (operatorul SAU)

Corespunde reuniunii mulimilor fuzzy (definit n subcapitolul Noiuni de logic fuzzy) cu


funciile de apartenen 1, 2, definite pe acelai univers de discurs X i se evalueaz (de
exemplu) prin operatorul maximum (MAX).
Produsul Cartezian

Dup cum s-a vzut anterior intersecia i reuniunea sunt definite pentru mulimi fuzzy pe acelai
univers de discurs. Produsul Cartezian fuzzy este utilizat pentru a cuantifica operaiile pe mai
multe universuri de variaie. Dac X 1j , X 2k ,..., X nl sunt mulimi fuzzy definite pe universurile de
discurs X 1 , X 2 ,..., X n atunci produsul lor Cartezian este mulimea fuzzy (uneori numit relaie
fuzzy) notat cu X 1j X 2k ... X nl i cu funcia de apartenen definit prin

j
k
l
1 X 2 L X n

( x1 , x2 ,..., xn ) = X j ( x1 ) X k ( x2 ) L X l ( xn )
2

48

(5)

2.2 Fuzzyficarea

Mulimile fuzzy sunt utilizate pentru a cuantifica informaiile n baza de reguli, iar mecanismul
de decizie opereaz cu mulimi fuzzy pentru a produce mulimi fuzzy. Astfel, este necesar a
specifica mecanismul prin care un sistem (n mod general) sau un sistem (n mod particular)
fuzzy va converti intrrile sale numerice xi X i n mulimi fuzzy proces numit fuzzyficare
astfel ca acestea s poat fi utilizate de sistemul sau sistemul fuzzy.
Se va nota cu X i* mulimea tuturor mulimilor fuzzy ce pot fi definite pe universul de discurs
X . Fie x X , blocul de fuzzyficare va transforma x ntr-o mulime fuzzy notat cu X fuz
i

definit pe universul de discurs X i . Aceast transformare este produs de operatorul de


fuzzyficare F definit prin
F : X i X i*

unde
F( xi ) = X i fuz .

(6)

Mulimea fuzzy X i fuz obinut n urma fuzzyficrii poate fi o mulime fuzzy:


a) singleton cu suportul xi ; X fuy ( xi ' ) = 1 dac xi ' = xi i X fuy ( xi ' ) = 0 dac xi ' xi , xi X i .
i

b) nonsingleton.
Astfel, denumirea metodei de fuzzyficare va fi dat de numele funciei de apartenen ataat
mulimii fuzzy X i fuz . De exemplu funcia de apartenen Gaus va implica fuzzificare gausian,
funcia de apartenen triunghi va implica fuzzyficare triunghiular.
n multe aplicaii practice din domeniul reglrii fuzzy este utilizat fuzzyficarea singleton.
Motivele pentru care metodele de fuzzyficare nonsingleton nu sunt prea utilizate, sunt: aduc
procesului de decizie o complexitate de calcul suplimentar; nevoia utilizrii lor nu afost destul
de bine justificat; practica a dovedit faptul c utilizarea fuzzyficrii singleton confer o foarte
bun funcionare sistemelor fuzzy de reglare automat. Totui utilizarea fuzzyficrii nonsingleton
nu a fost exclus definitiv din teoria general a sistemelor fuzzy, fiind totui propus de unii
autori (dar nu i utilizat de ei) pentru aplicaiile n care semnalele de intrare n sistemul fuzzy
sunt perturbate de zgomot.
2.3 Mecanismul de decizie

Mecanismul de decizie se efectueaz n dou etape de baz: a) etapa de potrivire (matching), n


care, se determin care reguli din baza de reguli sunt relevante pentru situaia curent
(caracterizat de intrrile xi , i = 1, n ); b) etapa de decizie (inference), n care, utiliznd intrrile
curente xi i informaiile din baza de reguli se vor genera concluziile.
Not: Pentru etapa de potrivire produsul Cartezian X 1j X 2k ... X nl este mulimea fuzzy ce
reprezint premiza regulii (j,k,...,l;p,q)i, i = 1, R , unde R este numrul de reguli din baza de reguli.
49

2.3.1 Etapa de potrivire

Fie xi , i = 1, n intrrile la un moment dat de timp. n urma fuzzyficrii se obin mulimile fuzzy
X fuz , ce vor reprezenta intrrile fuzzy.
i

Etapa de potrivire se va realiza n doi pai:


- combinarea intrrilor fuzzy cu premizele regulilor;
- determinarea regulilor active.

2.3.1.1 Pas 1 - Combinarea intrrilor fuzzy cu premizele regulilor

Acest pas presupune gsirea mulimilor fuzzy X ip ( i = 1, n , p = 1, N i ) cu funciile de apartenen

X ( xi ) = X ( xi ) X ( xi )
p
i

unde

p
i

fuz

(7)

i = 1, n ;

p = 1, N i ;

Ni numrul de funcii de apartenen definite pe universul X i .


Relaia (4.27) combin mulimile fuzzy, obinute n urma fuzzyficrii intrrilor xi , cu mulimile
fuzzy utilizate n fiecare din termenii premizelor regulilor. Dac se utilizeaz fuzzyficarea
singleton atunci relaia (4.27) devine

X ( xi ) = X ( xi ) ,
p
i

(8)

p
i

unde:
i = 1, n ;
p = 1, N i ;

Ni numrul de funcii de apartenen definite pe universul X i .

2.3.1.2 Pas 2 - Determinarea regulilor active

Dac se utilizeaz toate valorile posibile ale variabilelor de intrare x1 , x2 ,..., xn atunci se poate
obine o funcie de apartenen multidimensional pentru premiza fiecrei reguli utiliznd
urmtoarea relaie

premiza

( x1 , x2 ,..., xn ) = X j ( x1 ) X k ( x2 ) L X l ( xn ) , (9)
1

unde:
50

i = 1, R ;
R numrul de reguli din baza de reguli.
Dac se utilizeaz fuzzyficare singleton atunci relaia (4.29) devine

premiza

( x1 , x2 ,..., xn ) = X j ( x1 ) X k ( x2 ) L X l ( xn ) . (10)
n

Se consider x1 , x 2 ,..., x n ca fiind valorile corespunztoare variabilelor de intrare x1 , x2 ,..., xn la


un moment dat de timp. n acest caz valoarea funciei de apartenen i premiza ( x1 , x 2 ,..., x n )
( i = 1, R ), poate fi interpretat n felul urmtor: ct de sigur este proiectantul (sistemului fuzzy)
ca a i-a regula s fie utilizat pentru a specifica comanda pentru proces. Aceeai valoare din
punct de vedere matematic poate fi interpretat ca ponderea pe care o va avea regula i n ce
privete construirea deciziei finale a sistemului fuzzy (calcularea comenzii pentru procesul supus
reglrii).
2.3.2 Etapa de decizie

Pentru realizarea acestei etape exist dou variante standard: prima variant, presupune utilizarea
mulimilor fuzzy implicate iar, cea de-a doua variant presupune utilizarea mulimii fuzzy
implicat total.

2.3.2.1 Determinarea mulimilor fuzzy implicate

n acest caz, etapa de decizie presupune calcularea pentru regula (j,k,...,l;p,q)i, a mulimii fuzzy
implicate Yqi cu funcia de apartenen

Y ( yq ) = i
i
q

premiza

( x1 , x2 ,..., xn ) Y p ( y q ) . (11)
q

2.3.2.2 Determinarea mulimii fuzzy implicat total

n acest caz este determinat mulimea fuzzy implicat total Yq cu funcia de apartenen

Y ( yq ) = Y ( yq ) Y ( yq ) ... Y ( yq ) ,
q

1
q

2
q

R
q

(12)

care reprezint concluzia obinut considernd toate regulile din baza de reguli.
2.4 Defuzzyficarea

Defuzzificarea este operaia care produce valori non-fuzzy asociate unor mulimi fuzzy. Altfel
spus o reuniune de mulimi fuzzy obinut n urma evalurii legilor
~
~
~
~
R <i > : DACA x1 este X 1j i x2 este X 2k ... i xn este X nl ATUNCI y este Yq p , i = 1, N , active, va fi
transformat ntr-o valoare crisp.
51

n literatura de specialitate exist multe abordri n ce privete operaia de defuzzyficare. n


lucrarea de fa, n construcia regulatoarelor fuzzy folosite pentru aplicaiile experimentale, s-a
utilizat metoda centrului de greutate, dup care, o valoare crisp y qcrisp este calculat utiliznd
centrul ariei i aria fiecrei mulimi fuzzy implicate Y i (prezentate n seciunea 2.4.2.1):
q

crisp
q

c
i =1
R

q
i

yq

i =1

yq

Y ( y q )dy q
i
q

(13)

Y ( y q )dy q
i
q

unde:
R - numrul de reguli;
ciq - centrul ariei funciei de apartenen corespunztoare mulimii fuzzy Yqp asociat cu mulimea
fuzzy implicat Y i corespunztoare regulii i;
q

yq

Y ( y q )dy q - aria funciei de apartenen Y ( y q ) ;


i
q

i
q

yq ieirea q a sistemului, q = 1, m , m numrul de ieiri ale sistemului.


2.5. Structuri fuzzy
2.5.1. Structura Mamdani

Pentru simplitate se consider urmtoarele dou reguli:

52

2.5.2. Structura Takagi-Sugeno

n cazul acestei structuri, regulile sunt sub forma:


R1: DAC ~
x este A1 I ~
y este B1 ATUNCI z1=a1x + b1y
SAU
x este A2 I ~
y este B2 ATUNCI z2=a2x + b2y
R2: DAC ~

SAU

53

Se consider c:
-

intrrile au valorile: x = x0, y = y0;

Baza de reguli are doar 2 reguli lingvistice (R1, R2).

Se cere calcularea valorii ieirii (z0) sistemului fuzzy.


Soluionare:
-

Se calculeaz ponderea de activare a fiecrei reguli:

1 = A ( x0 )I B ( y0 )
1

2 = A ( x0 )I B ( y0 )
2

Se calculeaz ieirea fiecrei reguli:


z1* = a1 x0 + b1 y 0
z 2* = a 2 x0 + b2 y 0

Se calculeaz valoarea crisp a ieirii


z0 =

1 z1* + 2 z 2*
1 + 2

Dac baza de reguli are n reguli atunci valoarea crisp a ieirii sistemului se calculeaz cu:
n

z0 =

z
i =1
n

*
i i

i =1

, unde i reprezint ponderea de activare a i-a reguli, i=1,,n

Exemplu:
Fie sistemul fuzzy Takag-Sugeno cu urmtoarea baz de reguli:

54

Figura 5 Mecanismul de decizie Takagi-Sugeno

55

S-ar putea să vă placă și