Documente Academic
Documente Profesional
Documente Cultură
SISTEME INTELIGENTE DE
CONDUCERE SUPRAVEGHERE SI
CONTROL CE FOLOSESC REȚELE
NEURALE
Coordonator științific:
Ș.l. dr. ing. Carmen DUMITRESCU
Student:
Alexandru POPA
- Constanţa -
2020
CUPRINS
INTRODUCERE..............................................................................................................................7
CAPITOLUL I: CONSIDERAȚII TEORETICE PRIVIND REȚELELE NEURONALE....................................8
CAPITOLUL II: ELEMENTE DE DEFINIRE A REȚELELOR NEURALE...................................................6
II.1 Modele pentru neuronul elementar...................................................................................6
CAPITOLUL III: CALCULUL NEURAL.............................................................................................10
III.1 Unităţi funcţionale (de procesare) ale reţelelor neurale.................................................10
III.2 Arhitecturi specifice.......................................................................................................12
III.3 Algoritmi de învăţare.......................................................................................................14
CONCLUZII..................................................................................................................................18
BIBLIOGRAFIE.............................................................................................................................19
Lista figurilor
Figura 2.1 Neuronul biologic ......................................................................................... 6
Lista abrevieri
Inteligență Artificiala IA
4
CAPITOLUL I: CONSIDERAȚII TEORETICE PRIVIND
REȚELELE NEURONALE
Scurt istoric
În 2013, oamenii de ştiinţă de la Universitatea din Illinois, Chicago, (UIC) au testat unul dintre
cele mai bune sisteme de inteligenţă artificială - ConceptNet 4, iar rezultatele au arătat faptul că
sistemul este la fel de inteligent ca un copil obişnuit, în vârstă de patru ani, cu deosebirea că scorurile
obţinute variau de la un subiect la altul.
Concluzii preliminare
Unul dintre modelele dominante ale inteligenţei artificiale îl constituie modelul conexionist.
Acesta introduce conceptul de calcul neuronal care a generat realizări concrete cunoscute sub numele
de reţele neuronale artificiale (pe scurt reţele neurale)1 2 3 4.
1
Beiu, V. - Neural networks using threshold Gates. Thesis, Katholieke Universiteit Leuven, 1995
2
Best, B. - Artificial Intelligence and the Preservation of Min. Canadian Cryonics News, 1997
3
-Neural Networks – Introduction. 1998 http://www.ncs.co.uk/nn_intro.htm
4
-Neural Networks - Modes of Operation. 1998http://www.ncs.co.uk/nn_modes.htm
5
CAPITOLUL II: ELEMENTE DE DEFINIRE A REȚELELOR
NEURALE
Reţelele neurale artificiale sunt caracterizate de 3 elemente: modelul adoptat pentru elementul
de procesare individual, structura particulară de interconexiuni şi mecanismul de ajustare a legăturilor
dintre neuroni . În cele ce urmează vom trece în revistă pe rând aceste elemente, prezentând exemple
semnificative şi introducând terminologia corespunzătoare.
Neuronul biologic
Unitatea de organizare a sistemului nervos este neuronul (fig. 2.1), o celulă care reprezintă un
număr de dendrite şi un axon, prin intermediul căruia se conectează la alţi neuroni. Dendritele
constituie intrările în celula neuronală. Funcţia dendritelor este aceea de a recepţiona excitaţii şi de a
le conduce până la corpul neuronului. Axonul reprezintă ieşirea. Funcţia axonilor este aceea de a
conduce influxul nervos de la corpul celular la dendritele sau corpul celular al altui neuron. RNA este
alcătuită dintr-o mulţime de noduri în care se află neuronii artificiali , elemente de procesare neliniară
care operează în paralel. Prin analogie cu neuronul biologic, un neuron artificial are mai multe intrări
şi o ieşire, care se poate conecta la intrările altor neuroni.
În cadrul sistemului nervos biologic neuronii sunt conectaţi prin spaţiile denumite sinapse.
Sinapsele reprezintă unităţi structurale funcţionale, care stabilesc interacţiunile dintre neuroni.
Sinapsele impun o excitare sau o inhibare neuronului receptor.
Neuronul artificial
6
În prezentarea modelelor pentru neuronul elementar vom utiliza criteriile de clasificare folosite
în mod uzual în teoria sistemelor, punct de vedere care va sugera metodele de analiză şi, în unele
cazuri, de sinteză ale reţelelor studiate. În Fig. 2.2 se prezintă modalitatea uzuală de reprezentare
grafică a neuronului individual artificial, detaliată pentru varianta tipică a acestuia corespunzătoare
aşa-numitului model aditiv.
a) modele analogice
b) modele discrete
Una dintre observaţiile făcute sugera ideea potrivit căreia creierul este un "calculator" analogic.
Fără a avea neapărat în prim plan criteriul plauzibilităţii biologice, dezbaterea referitoare la alegerea
optimă între abordarea analogică sau discretă este un subiect de strictă actualitate. Argumentul cel mai
puternic în favoarea primei alternative îl constituie viteza superioară recunoscută a calculului
analogic. Unui neuron i se furnizează pe fiecare dintre conexiunile sale de intrare un semnal boolean
(0 sau 1) şi emite la ieşire tot un semnal boolean. Conexiunile de intrare pot fi de două tipuri şi
anume: inhibatoare şi excitatoare. În oricare dintre modele, neuronul artificial este o aproximare a
neuronului biologic, fiind format dintr-un corp, un set de intrări şi o ieşire. Intrările sunt ponderate,
fiind ulterior însumate. Suma obţinută se aplică unei funcţii de activare, care are ca rezultat ieşirea
neuronului respectiv.
Avantajele abordării discrete rezidă în principal în precizia calculelor, importantă mai ales în
cazurile în care parametrii reţelei sunt supuşi unor restricţii severe, de exemplu referitoare la condiţii
de simetrie. Posibilitatea stocării pe durate mari de timp în formă nealterată a unor valori numerice
utile reprezintă de asemenea un avantaj. Un aspect fundamental legat de implementarea reţelelor
digitale îl constituie determinarea rezoluţiei necesare (a numărului de biţi pe care se reprezintă
valorile numerice) într-o aplicaţie dată.
7
O distincţie suplimentară se poate face în raport cu gradul de cuantizare a semnalelor
prelucrate. Se folosesc atât semnale necuantizate cât şi semnale cuantizate, de obicei binare. Este
important de subliniat că modelul discret nu presupune neapărat implementare digitală, ci poate fi
folosită şi varianta care utilizează mărimi discrete necuantizate, folosind circuite cu capacităţi
comutate.
B. După natura datelor prelucrate:
a) modele reale
b) modele complexe
În marea majoritate a cazurilor mărimile prelucrate sunt reale, dar în ultimul timp se utilizează
şi reţele care lucrează cu variabile complexe sau, mai general, hipercomplexe. Această alegere este
justificată cu precădere în aplicaţii în care datele de intrare au o natură complexă intrinsecă (de
exemplu, semnale radar sau unele semnale folosite în transmisiuni de date), precum şi de numărul mai
redus de parametri necesari faţă de varianta reală. Algoritmii de învăţare sunt, de regulă, extensii
naturale ale variantelor formulate pentru semnale reale, însă atenţie specială trebuie acordată în acest
caz alegerii funcţiei de activare, în particular caracterului analitic al acesteia.
8
modele liniare este relativ restrânsă (egalizarea liniară a canalelor de transmisiuni de date,
clasificatoare liniare). În Fig. 2.3 se prezintă câteva dintre funcţiile de activare des
utilizate. Se pot face o serie de observaţii interesante:
modelul de tip comparator (Fig. 2.3 a,b) poate fi întâlnit atât în reţele analogice
cât şi în cele discrete
modelul de tip comparator cu prag (Fig. 2.3 c) poate fi înlocuit cu un model
fără prag dacă valoarea de prag θ se tratează ca o intrare distinctă de valoare
constantă egală cu (-1) conectată printr-o legătură (pondere) care se va modifica
în timp sub acţiunea algoritmului de învăţare
Fig
. 2.4: Funcţii de activare nemonotone
Ponderile
Ponderile corespunzătoare fiecărei intrări (X1, X2,….Xn) reprezintă numere reale. Dacă Xj
>0 ponderea este sinaptică excitatoare, iar dacă Xj<0 este o pondere inhibitoare. Aceste ponderi sunt
stabilite de către reţea în timpul procesului de învăţare prin algoritmi specifici, fiind de importanţă
vitală pentru buna funcţionare a reţelei neuronale.
9
Figura 2.5 Analogie între reţelele neurale artificiale şi cele biologice
10
CAPITOLUL III: CALCULUL NEURAL
Se definește prin termenul generic de calcul neural, calculul folosit în rezolvarea problemelor
de asociere, care se bazează pe extragerea unui model pe bază de exemple. Calculul neural face parte
din sfera mai generală a calculului natural (figura 3.2.), iar reţelele neurale reprezintă suportul hard
pentru calculul neural.
După cum se prezintă în figura 3.1., unităţile funcţionale din structura unei reţele pot fi de trei
feluri, în funcţie de rolul lor în cadrul reţelei respective.5
5
Freeman, J., Skapura, D.-Neural Networks, Algorithms, Applications and Programming Techniques,
Addison- Wesley Publishing Company Inc., 1992
6
Dzitac, I.- Inteligenţa artificială, Editura Universităţii Aurel Vlaicu Arad, 2008
7
http://www.bel.utcluj.ro/dce/didactic/sisd/SISD_curs_6_Retele_Neuronale_Artificiale.pdf
10
Figura 3.2. Calcul neural: Domenii, surse de inspiraţie şi implementare6
11
III.2 Arhitecturi specifice
12
Figura 3.3: Exemple de arhitecturi de reţele neurale artificiale
a) b)
13
formulate condiţii minimale referitoare la arhitectură. Mai mult, în literatură se prezintă
modalităţi de construcţie sistematică urmând un proces iterativ, grupate în 2 categorii:
• tehnici de tip pruning, în care se pleacă de la sisteme de dimensiuni suficient de mari şi se
elimină pe rând neuronii elementari şi legăturile care se dovedesc neimportante (cele care nu se
modifică semnificativ în procesul de învăţare). Decizia de eliminare este de regulă bazată pe un
calcul de senzitivitate al funcţiei de eroare în raport cu diversele ponderi ale sistemului. Un
exemplu binecunoscut îl reprezintă metoda Optimal Brain Damage .
• tehnici de tip learn and grow, în care se pleacă de la reţele de dimensiuni reduse şi se adaugă
neuroni şi conexiuni până când performanţele sistemului sunt suficient de bune. Ca exemple
putem cita algoritmul cascade-correlation şi metoda denumită projection pursuit .
Unul dintre aspectele care diferenţiază reţelele neurale faţă de alte sisteme de prelucrare
a informaţiei îl constituie capacitatea acestora de a învăţa în urma interacţiunii cu mediul
înconjurător şi, ca urmare, de a-şi îmbunătăţi în timp performanţele (conform unui criteriu
precizat).
Învăţarea este un proces prin care parametrii unei reţele neurale se adaptează în urma
interacţiunii continue cu mediul de lucru. Tipul mecanismului de învăţare este determinat de
modalitatea concretă prin care se produce ajustarea valorilor parametrilor sistemului.
14
• informaţii disponibile a priori referitoare la particularităţile şi, eventual, restricţiile cărora le
este supusă aplicaţia considerată. Astfel de considerente conduc, în general, la sisteme
specializate de dimensiuni reduse, mai uşor de antrenat şi mai ieftine.
• informaţii sub forma unor perechi intrare-ieşire care surprind o relaţie de tip cauză- efect. Setul
de date disponibil se împarte în două părţi, una fiind folosită în procesul de modificare a
ponderilor, deci de învăţare propriu-zisă, iar cealaltă pentru a testa performanţele sistemului
rezultat, oferind o imagine a aşa-numitei capacităţi de generalizare a reţelei.
Procesul de reprezentare internă respectă câteva reguli de bază, care sunt enumerate în
continuare :
Există mai multe moduri de a măsura "asemănarea" dintre 2 intrări distincte. Cea mai des
folosită este cea bazată pe distanţa Euclidiană dintre intrări (văzute ca vectori reali
multidimensionali). Uneori se utilizează produsul scalar sau funcţia de intercorelaţie dintre
cele 2 mărimi.
Regula 2: Intrări aparţinând unor categorii distincte trebuie să aibă reprezentări interne
cât mai diferite.
Această indicaţie favorizează funcţionarea corectă a reţelei deoarece aceasta nu trebuie să mai
înveţe particularităţile specifice aplicaţiei considerate. Sistemele rezultate sunt în general
specializate, având dimensiuni reduse, sunt mai uşor de implementat şi mai ieftine.
15
1.Învăţarea supravegheată (supervised learning) presupune existenţa în orice moment a
unei valori dorite (target) a fiecărui neuron din stratul de ieşire al reţelei. Sistemului i se furnizează
seturi de perechi intrare-ieşire dorită cu ajutorul cărora se calculează mărimi de eroare în funcţie de
diferenţa dintre valoarea reală a ieşirii şi cea dorită, pe baza cărora se ajustează valorile parametrilor
reţelei (interconexiuni şi, eventual, valori de prag ale funcţiilor de activare). Exemple tipice:
a) pentru reţele feedforward: algoritmul LMS (Least Mean Square) , clasa de algoritmi
back- propagation (cu propagare inversă a erorii) , cuantizarea vectorială cu învăţare (LVQ)
b) pentru reţele recurente: backpropagation-through-time , real- time recurrent learning.
2. În învăţarea nesupravegheată (unsupervised learning) reţeaua extrage singură
anumite caracteristici importante ale datelor de intrare formând reprezentări interne distincte
ale acestora. Reţeaua nu beneficiază de seturi de ieşiri dorite, în schimb se utilizează un gen de
"competiţie" între neuronii elementari care are ca efect modificarea conexiunilor aferente
numai neuronului care "câştigă" întrecerea, restul legăturilor rămânând neafectate. Exemple
din această categorie sunt:
a) pentru reţele feedforward: counterpropagation
b)pentru reţele recurente: algoritmul propus de Kohonen pentru hărţile cu autoorganizare
, algoritmul Hebb , Teoria Rezonanţei Adaptive (ART) elaborate de Grossberg . În unele modele
apare un parametru denumit intuitiv "conştiinţă" care intră în funcţiune atunci când unul dintre
neuroni câştigă prea des competiţia.
16
ΔγW = γ r x
17
CONCLUZII
Dezvoltarea continuă a proceselor tehnologice impuse de cerința economică de
creștere a productivității muncii și a competitivității , impun cerinţe justificate de
continuitate şi siguranţă în funcționarea, aparând necesitatea tot mai mare de
îmbunătăţire a fiabilităţii . Domeniul inteligenței artificiale este un subiect de interes în
continuă dezvoltare
Una din soluţiile cu potenţial ridicat în rezolvarea cerinţei de mai sus este
implementarea sistemelor neuronale deoarece acestea implementeaza modele din viata
noastra precum neuronii si sistemul nervos, fiind modele foarte organizate.
18
BIBLIOGRAFIE
www.cmu-edu.eu - Ghid pentru elaborarea proiectului de diplomă/ disertaţie,
Constanţa, .
1. Freeman, J., Skapura, D.-Neural Networks, Algorithms, Applications and
Programming Techniques, Addison- Wesley Publishing Company Inc., 1992
2.Dzitac, I.- Inteligenţa artificială, Editura Universităţii Aurel Vlaicu Arad, 2008
3.http://www.bel.utcluj.ro/dce/didactic/sisd/SISD_curs_6_Retele_Neuronale_Artificiale.
pdf
4.http://www.mpt.upt.ro/doc/curs/gp/Sisteme_inteligente_in_electrotehnica/Inteligenta_a
rtificiala_si_Retele_neuronale_cap1.pdf
5. http://scs.etc.tuiasi.ro/iciocoiu/courses/DSP/course5/capitol2_NN.pdf
19