Sunteți pe pagina 1din 18

1. Notiunea de multimi fuzzy. Diferenta intre multimile CRISP si multimile FUZZY.

Operatii cu multimi Fuzzy.

Majoritatea conceptelor din lumea reala sunt fuzzy. In logica conventionala, CRISP, un element
apartine sau nu unei multimi. Aceasta inseamna ca gradul de apartenenta este 0 ( daca nu apartine) sau
1 ( daca apartine).
Intr-o multime FUZZY, gradul de apartenenta apartine (0,1); el este elemental central in teoria
multimilor fuzzy.
Multimile si sistemele fuzzy au la baza logica fuzzy, care poate fi considerata logica
“rationamentului aproximativ” (nu se vorbeste de enunturi adevarate sau false, ci de
gradul de adevar al unui enunt). Logica fuzzy este o generalizare a logicii bivalente
(conventionala, crisp, clasica).
Multimile fuzzy modeleaza proprietatile de imprecizie, aproximare. Logica fuzzy rezolva
probleme unde logica crisp esueaza.

Operatii:
a) Reuniunea
AUB: X->[0,1]
(AUB)(x)=A(x) V B(x) = max(A(x), B(x))
b) Intersectia
A∩ B:X->[0,1]
(A∩ B)(x)=A(x)^B(x)= min (A(x), B(x) )
c) Complementara
𝐴: X->[0,1]
𝐴(x)=1-A(x)

2. Relatii binare: CRISP si FUZZY. Operatii cu relatii FUZZY.

Spunem ca o relatie Crisp binara R pe X este:


3. Decizii fuzzy multicriteriale (definitie si problematizare)
O problema de decizii fuzzy multiriteriale are 3 componente:
1. o multime de alternative X={x1, x2, ..., xn}
2. o multime de criterii C={C1, C2, ..., Cm}
3. un vector de ponderi asociate criteriilor w=(w1, w2, ..., wm), cu suma din wi=1
Rezolvarea unei prob de decizii muticriteriale consta in ierarhizarea alternativelor. Un criteriu va
trebui sa insemne cand o alternativa x e preferata unei alternative y.
In continuare se considera numai relatii de preferinta slabe (reflexive). Atunci un creiteriu CRISP va fi
o relatie de preferinta CRISP pe multimea X a alternativelor, iar criteriul fuzzy va fi o relatie de
preferinta fuzzy pe X.
Acestea sunt concepte f generale de criterii. Uneori vom impune ca un criteriu sa fie reprezentat de
relatie de preordine (reflexiva si tranzitiva) sau de ordine slaba (CRISP sau FUZZY).
Prin ierarhizarea alternativelor se intelege gasirea unei relatii de preordine totala (reflexiva, tranzitiva,
totala) CRISP pe X.
O problema de decizii multicriteriale consta in multimea X a alternativelor, o multime de criterii de la
R1, ..., Rn si ponderile de la w1, ..., wn.
In ponderea unei probleme de decizii fuzzy consideram doua etape:
1. agregarea criteriilor
2. ordinarea alternativelor folosind o functie scor
Agregarea criteriilor
Se numeste profil vectorul R1, ..., Rn.
Un operator de agregare este o functie φ prin care unui profil i se asociaza o relatie de preferinta fuzzy
R= φ ( R1, ..., Rn).
Se considera o functie M : Rm -> R. Ea determina un operator de agregare de la
(R1, ..., Rm)->n(R1, ..., Rm).
n(R1, ..., Rm) : X2 -> [0, 1] relatie fuzzy definita de M(R1, ..., Rm)(x,y)=n(Rn(x,y).
Ordonarea alternativelor folosind o functie scor
Fie X multimea de alternative si R relatie de preferinta fuzzy reflexiva pe X.
O functie scor asociata lui R are forma: S(., R):X->R, unde S(a, R) reprezinta scorul alternativei a.
O functie scor defineste o preordine totala, deci reflexiva, tranzitiva si totala pe X.
4. Utilizarea tehnicilor de tip Data Mining in IC
In modelele decizionale intalnim trei tipuri de date:
a) Datele propriu-zise: referitoare la evenimente, activitati si tranzactii dintr-un sistem sunt
inregistrate, clasificate si stocate, dar nu sunt organizate pentru a comunica o anumita idee.
Datele pot fi: numerice, categoriale, sunete sau imagini.
b) Informatiile: sunt date organizate astfel incat sa aiba un inteles pentru destinatar, cel din urma
poate interpreta informatiile, stabili noi conexiuni si emite concluzii.
c) Cunostintele: reprezinta date sau informatii organizate si prelucrate astfel incat sa fie capabile
sa comunice intelesuri, experienta si sa stabileasca noi intelesuri pe baza unui process de
autoinvatare.
Cunostintele sunt apoi utilizate intr-o problema decizionala curenta sau viitoare.Data Mining (DM)
reprezinta extragerea de cunostinte din date.
DM este reprezentat printr-un ansamblu de algoritmi si metode destinat explorarii si analizei unor
baze de date mari pentru a identifica (din date ) reguli, asocieri, tendinte necunoscute (nestabilite a
priori), structuri particulare ce caracterizeaza esentialul informatiei utile. Procesul de DM nu necesita
stabilirea de ipoteze de plecare care ar trebui verificate.
Comunitati implicate in DM: Statistica, Inteligenta artificiala, Cercetatorii din domeniul algoritmilor
de grupare (clustering algorithms), Cercetatorii din domeniul vizualizarii datelor, Baze de date
Necesitatea folosirii DM:
a) Explozia datelor prin - volum, dimensionalitate, complexitate;
- viteza de colectare a informatiei;
- necesitatea prelucrării în timp real a datelor
b) Necesitatea ameliorării productivităţii:
- presiune crescută datorită concurenţei;
- scurtarea ciclului de viaţă al produselor;- necesitatea luării unor decizii strategice eficace
c) Imbunatatirea performantelor calculatoarelor care devin capabile de a suporta volume mari de
date si a executa procese intensive de exploatare
d) Necesitatea de analiză automată a bazelor de date masive.

5. Metode de clusterizare si clasificarea lor in Data Mining. Aplicatii in Data Mining


6. Tipuri de invatare: supervizata si nesupervizata
In invatarea supervizata variabilele investigate se impart in doua grupe: variabile explicative si (una
sau mai multe) variabile dependente.
Scopul analizei datelor este de a specifica o relatie intre variabilele explicative si cele dependente,
precum in analiza regresiei.Pentru a aplica direct tehnicile DM, valorile variabilei dependente trebuie
sa fie cunoscute pentru cea mai mare parte a setului de date.In invatarea nesupervizata toate
variabilele sunt tratate in acelasi mod, nu exista distinctia intre variabilele explicative si variabilele
dependente.
Scopul analizei datelor este gruparea in clustere sau reducerea dimensionalitatii datelor.
Variabila tinta (=target variable) sau dependenta este necunoscuta sau valorile ei sunt inregistrate
pentru un numar mic de observatii.Volumul mare de date din DM permite clasificarea fisierelor de
date in trei grupe: date deantrenare, date de validare si date de testare. Datele de antrenare sunt
folosite pentru aconstrui un model si a estima parametrii necesari. Datele de validare ne ajuta sa
vedem daca
modelul obtinut cu un esantion aleas poate fi generalizat cu alte date.
Invatare supervizata:
Setul de antrenare contine atat date de intrare cat si raspunsurile corecte aferente acestora. Exemplu:
clasificarea in clase predefinite pentru care se cunosc exemple de elemente ce apartin claselor.
Invatarea supervizata este echivalenta cu optimizarea unei functii de eroare care masoara diferenta
dintre raspunsurile pe care ar trebui sa le produca reteaua si cele pe care le produce efectiv.
Invatarea supervizata include: arbori decizionali, regresie liniara, retele neuronale artificiale,
perceptronul, support vector machine SVM.
Invatare nesupervizata:
Setul de antrenare contine doar date de intrare. Exemplu: gruparea datelor in categorii in functie de
similaritatea dintre ele.Se bazeaza pe proprietatile statistice ale datelor. Nu se bazeaza pe conceptul de
functie de eroare ci pe cel de calitate a modelului extrasdin date, care trebuie maximizata prin
procesul
de antrenare.
Invatarea nesupervizata include: gruparea datelor (clustering): k-means clustering, k-medoids
clustering, clusterizare ierarhica, reducerea dimensiunii datelor, modele de retele neuronale: self-
organizing maps(=harti cu auto-organizare) SOM.

7. Analiza cluster (metode si comparatii)


Analiza cluster = (gruparea datelor) este procesul de grupare a unei multimi de obiecte astfel incat din
acelasi grup (cluster) sunt similare in comparatie cu obiectele din alte grupuri.
Analiza cluster este realizata de numerosi algoritmi, care difera in mod semnificativ in modul in care
se obtine un cluster si ce reprezinta el.
Analiza cluster poate fi:
-hard clustering: fiecare obiect apartine sau nu unui cluster
-soft clustering (=fuzzy clustering): fiecare obiect apartine unui cluster intr-un anumit grad.
Metode de clusterizare: K-MEANS(METODA MEDIIOR), ALGORITMUL
CELOR K-MEDOIDS, CLUSTERIARE IERARHICA.

8. Algoritmul K-MEANS (descriere si rezultate)


K-means clustering - metoda mediilor a fost introdus in 1967 de MacQueen. Se mai numeste
algoritmul lui Lloyd. K-MEANS reprezinta un algoritm de clusterizare non- ierarhic care imparte un
set de date inclustere folosind diferite criterii pentru gruparea instantelor.
Se da un set de observatii (x1, x2, ..., xn), unde fiecare observatie Xi este un vector real d-
dimensional. Algoritmul k-means clustering urmareste partitionarea celor n observatii in k multimi (k
≤ n) S = {S1, S2, ..., Sk} astfel incat sa se minimizeze suma patratelor distantelor de la punctul Xj la
mi,unde mi este media punctelor din clusterul Si.

Se da o multime initiala de k medii: .Algoritmul are 2 pasi alternanti:


Pasul de asignare: Se asigneaza fiecare observatie clusterului a carui medie conduce la minimizarea
sumei. Matematic, aceasta inseamna a partitiona observatiile astfel:

Pasul de update: Se calculeaza noile medii ca fiind centroizii observatiilor din noile clustere:
Algoritmul se opreste cand asignarile nu se mai modifica. Deoarece exista un numar finit de partitii,
algoritmul trebuie sa convearga catre un optim local.
Un dezavantaj al acestui algoritm este dat de faptul ca procesul de clusterizare este greoi in sensul ca
la fiecare pas, algoritmul trebuie sa efectueze un numar mare de calcule pentru a deteremina distanta
dintre fiecare instanta si fiecare centru. Mai mult decat atat, este necesara efectuarea unui numar mare
de iteratii avand in vedere faptul ca dupa ce au fost alcatuite clusterele, sunt recalculati centroizii
(centrele clusterelor) iar procesul trebuie reluat.
O solutie pentru acest dezavantaj consta in divizarea setului de date dupa anumite limite stabilite
anterior pentru a nu mai folosi in calcul fiecare instanta in parte ci numai diviziunile stabilite.

9. Algoritmul K-MEDOIDS (descriere si exemplu)


Este similara Clusterizarii K-MEANS, cu deosebirea majora: in timp ce un cluster este reprezentat
prin centrul sau in algoritmul k-means, este reprezentat prin cel mai apropiatobiect de centrul
clusterului. Clusterizarea k-medoids este mai robusta in prezenta observatiilor atipice (=outliers).
Un medoid este un obiect reprezentativ al unui set de date sau al unui cluster, cel mai apropiat de
centrul clusterului. Medoizii sunt un concept similar cu mediile sau centroizii, dar medoizii sunt
intotdeauna elemente ale setului de date.
O observatie atipica (=outlier) este o observatie distanta de celelalte observatii.
Poate fi cauzata de o eroare de masurare sau poate indica o eroare experimentala.Uneori observatiile
atipice sunt excluse din setul de date.
Metoda bazata pe k-medoids este mai robusta decat metoda bazata pe k-means deoarece un medoid
este mai putin influentat de observatiile atipice sau de alte valori extreme decat media.
Ex: Cel mai intalnit tip de algoritm k-medoid este Partitioning Around Medoids
(PAM) si consta in:
1. Initializare: se aleg aleator k din cele n observatii ca medoizi.
2. Se asociaza fiecare observatie cu cel mai apropiat medoid („cel mai apropiat” aici se
defineste folosind orice distanta, in mod uzual distanta euclidiana, Manhattan sau Minkowski)
3. Pentru fiecare medoid m
3.1. Pentru fiecare observatie non-medoid o
3.2. Se schimba m cu o si se calculeaza costul total al configuratiei
4. Alege configuratia cu cel mai scazut cost.
5. Repeta pasii 2-5 pana cand nu se mai modifica medoidul.
10. Clusterizare ierarhica. Distanta intre clustere
Algoritmii de clusterizare ierarhică produc o secventă de partitii de acelasi fel. Similaritatea dintre
fiecare pereche de documente este stocată într-o matrice de similaritate n x n. La fiecare pas,
algoritmul fie uneste două clustere, fie împarte un cluster în două. Rezultatul unei clusterizari poate fi
văzut sub forma unei structurii arborescente numita dendograma, cu un cluster rădăcină care contine
toate documentele colectiei si multe clustere la bază, fiecare continând un singur document.
In dendograma cu cat urcam in ierarhie cu atat clusterele sunt mai generale.
11. Clusterzare ierarhica. Rezolvarea unui ex.
LIPSA INFO :(
------------------------------------------------------------------------------------------------------------------------
12 și 13. Arbori de decizie . Criterii de masurare a importantei nodurilor. Rezolvarea unui
exemplu
Sunt utilizati pentru a previziona apartenenta obiectelor la o clasa.Au avantajul unei vizualizari
sugestive. Sunt usor de inteles si de interpretat si pot fi aplicati pe date numerice si calitative.
Algoritmii bazati pe arbori decizionali sunt eficienti in cazul seturilor mari de date cand se impune
verificarea anumitor ipoteze asupra distributiei datelor. Aceasta tehnica trebuie combinata cu alte
tehnici.
Constructia unui arbore de decizie este un proces inductiv numit “inductia arborelui”. Exista 3
elemente definitorii ale clasificarii obtinute prin inductia arborelui:
1. un nod intern (neterminal) exp. testarea bazata pe un anumit atribut.
2. fiecare ramura a arborelui exp. rezultatul testului
3. nodurile frunza (terminale) reprezinta clasele
Arborii decizionali sunt utilizati in:medicina (diagnoze), informatica(structuri de date), botanica
(clasificari), psihologie (th. deciziilor comportamentale)
Arborii decizionali sunt de 3 tipuri:
1. de clasificare: rezultatul predictiei este apartenenta datelor la o clasa
2. de regresie: rezultatul predictiei este un nr nreal, de ex pretul unei actiuni
3. combinatia celor doua: CART: Clasification and Regression Tree
Pornind de la un set de date se pot construi mai multi arbori in functie de atributele selectate. Un
arbore conduce la un mod de clasificare care imparte setul de antrenare pana se ajunge la noduri
terminale care contin fie obiecte din aceeasi categorie, fie obiecte apartinand unei categorii
dominante.
Inductia arborelui are 2 faze:
1. constructia arborelui initial foloseste setul de antrenare pana cand fiecare nod terminal devine
pur(omogen) sau aproape pur.
2. curatarea arborelui (pruning the tree) pe a imbunatatii exactitatea obt. pe setul de testare.

14. Rationamentul Bayesian. Casificatorul Naiv-Bayesian: descrierea algoritmului si rezolvarea


unui exemplu
Rationamentul Bayesian este metoda de clasificare bazata pe probabiitatea conditinata si pe formula
lui Bayes: P(A|B)=[P(B|A)*P(A)]/P(B). Se considera o populatie C ale carei obiecte sunt caracterizate
de n atribute. Notam atributele cu A1, ..., An si valorile atributelor cu x1, ..., xn. C este impartita in k
clase C1, ..., Ck cu propietatile: Ci∩Cj=Ø, i≠j si ∪ 𝐶𝐶 = 𝐶, 𝐶 = 1, 𝐶.
Pas 1: Fie T o multime de antrenare. Fiecare observatie din T este etichetata cu clasa careia ii apartine:
C1, ..., Ck.
Pas 2: Pt o observatie x, CNB va detecta carei clase ii apartine x. Notam cu P(x) probabilitatea ca sa
fie ales obiectu x si P(ci)probabilitatea ca sa fie aleasa casa Ai. P(ci|x)=probabilitatea ca punctul ales,
fiind x, e sa apartina casei Ci P(x|ci)=probabilitatea de a fi ales c cu conditia ca el sa fie in clasa Ci.
Probabilitatile P(ci) se numesc probabilitati apriorice, anterioare alegerii lui x Probablitatile P(ci|x) se
numesc probabilitati posteriorice. Rationamentul Bayesian consta in alegerea clasei Ci pt care
P(ci|x)=max. max= P(ci|x)=max[P(x|ci)*P(ci)]/P(x)=1/P(x) max[P(x|ci)*P(ci)] x€Ci <=> P(ci|x) >
P(cj|x), i≠j. Apartenenta lui x la clasa Ci pe care P(ci|x) e max se numeste ipoteza max posterioara .
Pas 3: Daca probabilitatile P(ci) sunt = atunci se ajunge la max P(x|ci).
Pas 4: Pt seturi mari de date (cu multe atribute) este cmplicat de calculat P(x|ci).
Pt a reduce calculele se face ipoteza naiva de independenta de clasa P(x|ci)=П P(xj|xj), xj este
valoarea atributului Aj pt observatia x.
Pas 5: Pt a predictiona clasa lui x evaluam P(x|ci)*P(ci) si alegem Ci pt care unu e maximizat.
Modelul de învăţare Bayesian este relevant din două motive. Primul dintre ele este acela că algoritmii
bayesieni care calculează direct probabilităţi pentru anumite ipoteze, cum ar fi algoritmul de
clasificare naiv al lui Bayes, sunt printre cele mai practice abordări pentru anumite tipuri de probleme
de învăţare. Studiile arată nu doar faptul că aceşti algoritmi sunt competitivi cu alţii, dar şi faptul că
pentru unele clase de probleme iau surclasat. Al doilea motiv pentru care metodele Bayesiene sunt
importante este că ele oferă o perspectivă utilă pentru înţelegerea mai uşoară a multor algoritmi de
învăţare care nu manipulează în mod explicit probabilităţi. Perspectivele bayesiene pot fi folosite
pentru analizarea reţelelor neuronale sau a arborilor de decizie. Clasificatorul Nai Bayes (CNB) se
bazeaza pe Teorema lui Bayes si se aplica cand multidimensionalitatea datelor input este mare. In
ciuda simplitatii sale, CNB poate depasi uneori metode de clasificare mai complexe. Teorema lui
Bayes este una dintre teoremele fundamentale ale teoriei probabilităţiilor, care determină
probabilitatea apartenenţei evenimentelor şi a
obiectelor la o anumită grupă. Probabilitatea bayesiană este numele dat mai multor interpretări ale
noţiunii de probabilitate, care au în comun ideea de probabilitate ca credinţă parţială, în loc de cea de
frecvenţă de apariţie a unui eveniment. Aceasta permite aplicarea probabilităţii mai multor propoziţii
şi nu doar cele care au o clasă de referinţă.
Exemplu:Obiectele pot fi clasificate fie VERDE sau ROSU. Scopul este de a clasifica noi cazuri,
adica de a decide carei clasa apartin, pe baza obiectelor existente.Deoarece sunt de doua ori mai multe
obiecte verzi decat rosii, credem ca o noua instanta (care nu a fost inca observata) are o probabilitate
de a fi verde de doua ori mai mare decat a fi rosie. In analiza Bayesiana, aceasta probabilitate este
cunoscuta drept probabilitate apriori. Probabilitatile apriori sunt bazate pe experienta anterioara, in
acest caz procentajul obiectelor verzi si rosii, si de obicei sunt folosite pentru a previziona rezultatele
inainte ca ele sa fie obtinute. Deci, putem scrie: Probabilitatea apriori pentru VERDE=P(Verde)=Nr.
de obiecte verzi/ Nr. total de obiecte Probabilitatea apriori pentru ROSU=P(Rosu)=Nr. de obiecte
rosii/ Nr. total de obiecte Prespunem ca sunt 60 obiecte in total, din care 40 verzi si 20 rosii.
Probabilitatile apriori de apartenenta la o clasa sunt: Probabilitatea apriori pentru
VERDE=P(Verde)=40/60 Probabilitatea apriori pentru ROSU=P(Rosu)=20/60. Suntem pe punctul de
a clasifica un nou obiect X (cercul alb din figura). Este rezonabil sa presupunem ca cu cat sunt mai
multe obiecte verzi (sau rosii) in vecinatatea noului obiect, cu atat este mai probabil ca noul obiect sa
apartina acelei culori. Pentru a masura aceasta probabilitate, trasam un cerc in jurul noului obiect, care
cuprinde un numar (stabilit anterior) de puncte indiferent de eticheta (=culoare). Apoi calculam
numarul punctelor din cerc apartinand fiecarei clase. De aici calculam probabilitatea:
P(X |Verde)=1/40
P(X|Rosu)=3/20

15. Masini cu suport vectorial si clasificatori liniari


Masinile cu suport vectorial reprezintă o metodă de clasificare introdusă în anul 1992 de către Boser,
Guyon si Vapnik . Clasificatorul care foloseste această tehnică este folosit atât în bioinformatică cât si
în alte discipline, datorită acuratetei ridicate si a abilitătii de a se descurca bine atunci când întâlneste
date cu multe dimensiuni, cum ar fi expresii ale genelor, dar si pentru flexibilitatea în modelarea
diferitelor surse de date. Masinile cu suport vectorial apartin unei categorii generale de „metode cu
nucleu”. O astfel de metodă este un algoritm care depinde de date doar prin produse scalare. Când este
necesar, produsul scalar poate fi înlocuit de o functie nucleu, care calculează acest produs scalar într-
un posibil spatiu de caracteristici multidimensional. Această abordare are două avantaje. Primul dintre
ele este capacitatea de a genera decizii neliniare asupra limitelor folosind metode construite pentru
clasificatorii liniari. Al doilea avantaj îl constituie faptul că folosirea functiilor nucleu permit
utilizatorului să aplice un clasificator datelor care nu au o reprezentare a spatiului vectorial de
dimensiune fixă. Printre primele exemple de astfel de date în bioinformatică se numără ADN-ul si
structura proteinelor. Folosirea masinilor cu suport vectorial necesită o întelegere în profunzime a
modului în care acestea functionează. Când se antrenează un algoritm de masini cu suport vectorial,
practicantul trebuie să ia un anumit număr de decizii importante: cum vor fi datele preprocesate, ce fel
de nucleu se va folosi si, în final, setarea parametrilor atât pentru nucleu cât si pentru masinile cu
suport vectorial. Alegerile uniforme pot conduce la o performantă scăzută.

16. Masini cu suport vectorial si clasificatori neliniari


Masinile cu suport vectorial reprezintă o metodă de clasificare introdusă în anul 1992 de către Boser,
Guyon si Vapnik . Clasificatorul care foloseste această tehnică este folosit atât în bioinformatică cât si
în alte discipline, datorită acuratetei ridicate si a abilitătii de a se descurca bine atunci când întâlneste
date cu multe dimensiuni, cum ar fi expresii ale genelor, dar si pentru flexibilitatea în modelarea
diferitelor surse de date. Masinile cu suport vectorial apartin unei categorii generale de „metode cu
nucleu”. O astfel de metodă este un algoritm care depinde de date doar prin produse scalare. Când este
necesar, produsul scalar poate fi înlocuit de o functie nucleu, care calculează acest produs scalar într-
un posibil spatiu de caracteristici multidimensional. Această abordare are două avantaje. Primul dintre
ele este capacitatea de a genera decizii neliniare asupra limitelor folosind metode construite pentru
clasificatorii liniari. Al doilea avantaj îl constituie faptul că folosirea functiilor nucleu permit
utilizatorului să aplice un clasificator datelor care nu au o reprezentare a spatiului vectorial de
dimensiune fixă. Printre primele exemple de astfel de date în bioinformatică se numără ADN-ul si
structura proteinelor. Folosirea masinilor cu suport vectorial necesită o întelegere în profunzime a
modului în care acestea functionează. Când se antrenează un algoritm de masini cu suport vectorial,
practicantul trebuie să ia un anumit număr de decizii importante: cum vor fi datele preprocesate, ce fel
de nucleu se va folosi si, în final, setarea parametrilor atât pentru nucleu cât si pentru masinile cu
suport vectorial. Alegerile uniforme pot conduce la o performantă scăzută.

17. Neuron biologic si neuron artificial comparatie


Neuronul biologic este format din 3 componente:
- soma (corpul neural)- corpul celulei, constituit din membrana si substanta
intracelulara: transforma semnalele de intrare in semnale de iesire.
- axonul- prelungire a corpului neural : transmite semnalele de iesire catre alti
neuroni
- dendritele- formeaza un arbore de fibre in jurul corpului neuronului:
colecteaza semnalele de intrare
Neuronul este capabil să răspundă totalului intrărilor sale agregate într-unscurt interval de timp numit
perioadă de latentă. Răspunsul neuronului estegenerat dacă totalul potenţialului membranei sale atinge
un anumit nivel.Membrana poate fi considerată ca o învelitoare care agregă magnitudineasemnalelor
care intră pe parcursul unei anumite durate de timp. Neuronul generează un impuls-raspuns şi îl
transmite axonului său numai dacă condiţiile necesare sunt îndeplinite.

Neuronul artificial ( pe scurt, neuronul) este unitatea de procesare a retelei neuronale El are mai multe
cai de intrare prin care primeste informatia de la alti neuroni si mai multe cai de iesire prin care
transmite informatia prelucrata catre alti neuroni. neuronul artificial efectuează următoarele operaţii:

Procesarea în reţelele neuronale biologice este complexă şi mai putinstructurată decât calculul digital.
Spre deosebire de calculul digital, impulsurile neurale nu sunt sincronizate în timp. O caracteristică
importantă a neuronului biologic este că semnalele generate nu diferă în magnitudine. Cu alte cuvinte,
informaţia transmisă între celulele nervoase este sub forma semnalelor binare. Această discuţie este o
simplificare foarte mare din punct de vedere neurobiologic. Reţelele neuronale artificiale sunt mult
mai simple decât corespondentul lor natural.
18. Structura Retelei Neuronale artificiale. Mod de operare. Exemplu Retea neuronala
artificiala
Reţelele neuronale artificiale sunt constituite din neuroni artificiali interconectaţi între
ei. Neuronii constituenţi sunt de obicei organizaţi în mulţimi distincte numite straturi (layers). O reţea
neuronală clasică constă dintr-o secvenţă de straturi de neuroni, cu conexiuni totale sau aleatoare între
neuronii conţinuţi în straturi succesive. Întotdeauna vom avea pentru o reţea neuronală, cel puţin două
straturi de neuroni, ce au rolul de a comunica cu mediul exterior: un strat de intrare: care are rolul de a
prelua datele de intrare i x , i = 0,..., n cu termen bias sau x0 1 , i = 1,..., n fără termen bias.
Vectorul x= ( , ,..., ) 0 1 n x x x sau x = ( ,..., ) 1 n x x va fi numit vector de intrare al reţelei neuronale.
un strat de ieşire: unde se obţin rezultatele j y , j = 1,..., m furnizate de reţeaua neuronală, ca răspuns la
vectorul de intrare prezentat la stratul de intrare şi al propagării acestor date de la stratul de intrare
către stratul de ieşire. Vectorul y =( , ,... ) 1 2 m y y y se numeşte vector de ieşire al reţelei neuronale.
toate celelalte straturi ale reţelei neuronale, dacă există, diferite de stratul de intrare şi de stratul de
ieşire, vor fi denumite straturi ascunse (hidden layers).

Exemplu: În problema previzionarii pretului la gazele naturale, compania a considerat că evoluţia


preţurilor este influenţată de următorii cinci factori:
-trimestrul,
-anotimpul,
-rata vânzărilor din anul precedent,
-variaţia preţurilor în luna precedentă,
-variaţia preţurilor în anul anterior.
În consecinţă, primul nivel al reţelei folosit în acest caz va include 5 unităţi elementare de intrare
(neuroni artificiali). Cum este urmărit un singur rezultat – rata de variaţie a preţului pentru luna
următoare, pe nivelul de ieşire va exista o singură unitate elementară. Presupunând că se recurge la un
singur strat intern (suficient în numeroase cazuri), reţeaua poate avea structura din figura următoare.
19. Procesul de invatare al Retelei Neuronale artificiale. Reguli de invatare.
Invatarea este un proces in care parametrii retelei neuronale (ponderile) sunt adaptati permanent prin
intermediul unor stimuli din mediul inconjurator (intrari). Mai precis, invatarea consta in urmatoarea
secventa de evenimente :
- reteaua neuronala primeste stimuli de la mediul inconjurator
- ca raspuns la stimuli , reteaua neuronala se modifica
- ca urmarea a modificarii, reteaua raspunde intr-un mod nou la stimuli
Procesul de invatare se realizeaza in timp (in pasi). La fiecare pas se modifica ponderile retelei. Avem
de-a face cu algorimi de invatare. In functie de algorimul aplicat putem vorbi de invatare supervizata
si de invatare nesupervizata. Invatarea supervizata presupune un set de intrari (date de antrenament)
pentru care iesirile sunt cunoscute ( raspunsurile sunt date de un antrenor).
Prin urmare, un algoritm de invatare supervizata presupune :
- un set de vectori de intrare sunt prezentati retelei
- se determina iesirile corespunzatoare (calculate de retea , folosind ponderile existente)
- se evalueaza abaterile (erorile) fata de raspunsurile dorite (precizate dinainte)
- ponderile sunt modificate in raport cu erorile printr-o formula proprie algoritmului.
O varianta a invatarii supervizate o constituie invatarea cu intarire , in care nu se cunoaste raspunsul
(iesirea) corespunzator unui vector de antrenament ci numai daca reteaua a produs sau nu a produs
raspunsul corect. Ponderile sunt actualizate folosind numai aceasta informatie . In invatarea
nesupervizata, multimea de instruire (de antrenament) este formata numai din vectori de intrare .
Iesirile acestora nu sunt cunoscute. Un algoritm de invatare nesupervizata se opreste atunci cand
vectorii de iesire vor fi foarte apropiati in doi pasi consecutivi (doua semnale foarte apropiate vor
produce raspunsuri identice sau foarte asemanatoare).
Reguli

20. Perceptronul simplu


21. Calcul evolutiv - cromozomi
Cromozomii sunt purtatorii info-genetice. Un cromozon este o structura ordonata de elemente numite
gene, ale caror valori determina caracterizarea unor indivizi si care transmit info genetica.
Lungimea cromozonului depinde de natura problemei. Cea mai folosita tehnica de codificare a lor este
cea binara. Caracteristicile sunt considerate gene.
Calculul evolutiv se ocupa de roblema optimizarii si clasificarii cu ajutorul calculatoarelor si se
bazeaza
pe principii provenite din genetica, selectia naturala sau sisteme adaptive complexe.
Calculul evolutiv se imparte in :
-alg genetici
-programare evolutiva
-strategii evolutive
-programare genetica
-optimizarea roiurilor de particule
Aplicatii ale calculului evolutiv:
-control optimal
-planificare
-modelare econometrica
-comprimarea imaginilor
-traducere automata
-prelucrarea imaginilor
-predisctia sistemlor financiare

22. Definirea cromozomilor si codificarea lor Cromozom Codificare


Cromozomii sunt purtatorii info-genetice. Un cromozon este o structura ordonata de elemente numite
gene, ale caror valori determina caracterizarea unor indivizi si care transmit info genetica.
Lungimea cromozonului depinde de natura problemei. Cea mai folosita tehnica de codificare a lor
estecea binara. Caracteristicile sunt considerate gene.
Definirea cromozomului constă în stabilirea numărului de gene şi a codificarii acestora.
O codificare presupune un alfabet V ce corespunde valorilor alelelor .
Un cromozom este reprezentat de un sir de lungime r format cu elemente din V ( cuvant peste
alfabetul V).
Alegerea alfabetului si lungimea cromozomilor depinde de natura problemei considerate.
Fiecare cromozom e reprezentat de un sir finit de 0 si 1.
Codificarea binara este cea mai folosita tehnica de codificare. In codificarea binara alfabetul este V=
{0,1}, deci fiecare cromozom este reprezentat ca un sir finit de 0 si 1.

23. Operatori de selectie. Selectie proportionala . Si selectia Monte-Carlo


24. Operator de incrucisare si mutatie
Dupa ce s-au selectat cei mai importanti cromozomi prin operatorul de selectie se aplica operatorii de
incrucisare si mutatie pentru a introduce noi indivizi in populatie (altii decat cei din populatia
existenta).
Acesti doi operatori exploreaza zonele invecinate populatiei pentru a gasi indivizi noi pentru a fi
introdusi in populatie.
Incrucisarea.
Selecţia este urmată de încrucişare. Aceasta pleacă de la doi cromozomi existenţi, din care anumite
părţi sunt permutate, iar celelalte sunt păstrate neschimbate, pentru a obţine doi cromozomi noi.
Asadar se utilizeaza operatori de incrucisare de tipul (2,2): din doi parinti se obtin doi descendenti.
Exista mai multe tipuri de incrucisari:
a) cu un singur punct de taietura
b) cu mai multe puncte de taietura
b.1) cu doua puncte de taietura
b.2) cu trei puncte de taietura
b.3) cu patru puncte de taietura
Mutaţia intervine ca o eroare în transmiterea materialului genetic si consta în schimbarea unei gene
din zero în unu sau invers. Frecvenţa sa de apariţie în natură este redusă şi se produce câte o singură
mutaţie la fiecare generaţie. In general, mutatia e destructiva. Indivizii aparuti prin efectul ei intr-o
generatie sau doua succesive vor fi eliminate. Probabilitatea de mutatie are o valoare mica de ordinul
10-3.

S-ar putea să vă placă și