Sunteți pe pagina 1din 7

Universitatea Tehnică a Moldovei

Facultatea Tehnologia Alimentelor


Departamentul Tehnologia Produselor Alimentare

Referat
La disciplina ,,Bazele programării calculatoarelor’’

Tema: Retele Neuronale

A efectuat studentul gr.: Arseniev Alexandru, TMAP-211

A verificat: l.univ. R.Branişte

Chişinău 2022
Rețelele neurale[1] (RN, în engleză: ANN de la artificial neural network)
sunt o ramură din știința inteligenței artificiale și constituie totodată,
principial, un obiect de cercetare și pentru neuroinformatică. Rețelele
neurale artificiale caracterizează ansambluri de elemente de procesare
simple, puternic interconectate și operând în paralel, care urmăresc să
interacționeze cu mediul înconjurător într-un mod
asemănător creierelor biologice și care prezintă capacitatea de a învăța.
Ele sunt compuse din neuroni artificiali, sunt parte a inteligenței artificiale și
își au, concepțional, originea ca și neuronii artificiali, în biologie. Nu există
pentru RNA o definiție general acceptată a acestor tipuri de sisteme, dar
majoritatea cercetătorilor sunt de acord cu definirea rețelelor neurale
artificiale ca rețele de elemente simple puternic interconectate prin
intermediul unor legături numite interconexiuni prin care se
propagă informație numerică.
Originea acestor rețele trebuie căutată în studierea rețelelor bioelectrice
din creier formate de neuroni și sinapsele acestora. Principala trăsătură a
acestor rețele este capacitatea de a învăța pe bază de exemple, folosindu-
se de experiența anterioară pentru a-și îmbunătăți performanțele.
Principala deosebire a rețelelor neurale față de alte sisteme (electronice)
de prelucrare a informațiilor îl constituie capacitatea de învățare în urma
interacțiunii cu mediul înconjurător, și îmbunătățirii performanțelor. O
reprezentare corectă a informațiilor, care să permită interpretarea, predicția
și răspunsul la un stimul extern, poate permite rețelei să construiască
un model propriu al procesului analizat. Acest model va putea răspunde
astfel unor stimuli neutilizați în procesele anterioare de învățare ale rețelei
RNA. Informațiile utilizate în procesul de învățare pot fi: informații
disponibile a priori sau perechi intrare-ieșire(care stabilesc relații de tipul
cauză-efect), iar modul de reprezentare internă urmărește un set de reguli
bine documentate

Neuroni, corpuri celulare și semnale


O rețea neuronală, indiferent dacă e biologică sau artificială, este alcătuită
dintr-un număr mare de unități simple, numite neuroni, care primesc
semnale unii de la alții și le transmit mai departe. Neuronii sunt elemente
foarte simple de tratare a informațiilor: sunt alcătuiți dintr-un corp celular și
din fire care îi leagă între ei. În cea mai mare parte a timpului, doar stau și
așteaptă semnale.
Caracteristica nr. 1 a rețelelor neuronale

În primul rând, într-un calculator tradițional, informațiile sunt prelucrate de


un procesor central (unitatea centrală de procesare sau, pe scurt, CPU)
care se concentrează pe un singur lucru în același timp. CPU poate prelua
datele care urmează să fie prelucrate din memoria calculatorului și poate
stoca rezultatul în memorie. Astfel, de stocarea și prelucrarea datelor se
ocupă două componente distincte ale calculatorului: memoria și CPU. În
cazul rețelelor neuronale, sistemul este format dintr-un număr mare de
neuroni, fiecare dintre aceștia putând prelucra separat informații, astfel
încât, în loc să avem un CPU care prelucrează informațiile una după alta,
neuronii prelucrează simultan cantități mari de informații. Din cauza acestor
două diferențe, rețelele neuronale și calculatoarele tradiționale sunt
potrivite fiecare pentru sarcini oarecum diferite. Rețelele neuronale se pot
simula cu ajutorul calculatoarelor tradiționale, așa cum se întâmplă de mult
timp, însă capacitatea lor maximă este atinsă numai atunci când folosim un
hardware special (un dispozitiv informatic) care poate procesa informații
numeroase în același timp. Este ceea ce se numește prelucrare paralelă.
De altfel, procesoarele grafice (sau unitățile de procesare grafică) au
această capacitate și au devenit o soluție rentabilă pentru aplicarea unor
metode complexe de învățare profundă.

 Funcții de activare

Plecând de la ideea că un neuron poate fi reprezentat de un sumator și o


funcție, atunci o rețea neuronală va deveni o mulțime de funcții
interconectate. Este important totuși să definim tipul de funcții folosite.

Aceste funcții reprezintă filtrele prin care va trece informația. Vrem totuși un
set de funcții cu proprietăți specifice, fiindcă de ele depinde cum trebuie să
modificăm ponderile, modificarea acestora reprezentând învățarea rețelei
neuronale. Modificarea funcțiilor implică să le variem în timp, deci să ne
jucăm și cu derivatele lor. Deși ruptă puțin din context, ideea învățării
rețelelor neuronale prin metoda gradientului chiar este o metodă
consistentă și este folosită adesea la antrenare.

S-ar putea să vă placă și