Sunteți pe pagina 1din 8

Învățare automată este un subdomeniu a informaticii 

, al cărui obiectiv este de a


dezvoltatehnici care dau calculatoarelor posibilitatea de a învăța. Mai precis, se urmărește să se
creezeprograme capabile de generalizare pe baza unor exemple.În multe cazuri, domeniul
învățăriiautomate se suprapune cu cel al statisticii computaționale, deoarece cele două discipline
se bazează pe analiza datelor. Cu toate acestea, învățare automată, se concentrează și pe
complexitatea computațională al problemelor. Învățare automată are o gamă largă de aplicații,
inclusiv motoare de cautare, diagnostice medicale, detectare de fraudă în utilizarea cardului de
credit, analiză a pieței de valori, clasificarea a secventelor de ADN, recunoaștere a vorbirii
și limbajului scris, jocuri și robotica. Modele geometrice, construite în spațiul de instanțe și care
pot avea unul, două sau mai multe dimensiuni. Dacă există o margine de decizie liniară între
clase, se spune că datele sunt liniar separabile. Modele geometrice, construite în spațiul de
instanțe și care pot avea unul, două sau mai multe dimensiuni. Dacă există o margine de decizie
liniară între clase, se spune că datele sunt liniar separabile. Modele probabilistice , care încerca
sa determine  distribuția între probabilitate de descripție pentru funcția care leagă valorile de
caracteristici cu valorile determinate. Unul dintre conceptele cheie pentru a dezvolta modele
probabilistice este statistica bayesiana. Modele logice, care transforma și exprima probabilitațile în
normele organizate sub formă de arbori de decizie.Algoritmul produce o funcție care stabilește o
corespondență între intrările și rezultatele dorite de la sistem. Un exemplu de acest tip de
algoritm este o problemă de clasificare, în cazul în care sistemul de învățare este de a eticheta
(clasifica) o serie de vectori folosind oricare din mai multe categorii. Învățarea prin armare
Învățare prin armare este cel mai general dintre cele trei categorii. În loc de a avea un instructor
care indica agentului ce să fac, agentul inteligent va trebui să învețe cum se comportă mediul
înconjurător prin utilizarea unor recompense sau pedepse, care derivă din succesul sau eșecul
respectiv. Obiectivul principal este de a învăța funcția de valoare care va ajuta agentul inteligent
pentru a maximiza semnalul de recompensă și astfel să poată optimiza politicile lor în așa fel
încât să altereze comportamentul mediului astfel încât să își îndeplininească obiectivele sale.
Învățare automată oameni o efectuează în mod automat, deoarece este un proces atât de simplu
pentru noi încât nu ne dăm seama cum se face și tot ce implică. De la naștere până la moarte, noi
oamenii realizăm diferite procese, printre care găsim procesul de învățare prin care dobândim
cunoștințe, dezvoltăm abilități de analiză și evaluare prin metode și tehnici, precum și prin propria
noastră experiență. Cu toate acestea, mașinile trebuie să fie învățate cum să învețe, pentru că dacă
o mașină nu este capabilă să-și dezvolte abilitățile, procesul de învățare nu va fi realizat, ci va fi doar
o succesiune repetitivă. De asemenea, trebuie să avem în vedere faptul că cunoașterea sau buna
funcționare a procesului de învățare automată nu înseamnă că știi cum să folosești, trebuie să știi
cum să o aplici în activitățile de zi cu zi și că
învățarea bună înseamnă și să știm cum și când să folosim cunoștințele noastre. Pentru a efectua o
bună învățare este necesar să se ia în
considerare toți factorii care te inconjoara, precum societatea, economiea, orașul, atmosfera, locul.
Prin urmare, este necesar să se înceapă luarea unor măsuri diferite pentru a se realiza o învățare
adecvată și pentru a se obține o automatizare adecvată a învățării. Deci, primul lucru pe care trebuie
să fie luate în considerare este conceptul de cunoaștere, care este înțelegerea unui anumit subiect
în care vă puteți exprima opinia sau punctul de vedere, precum și să răspundă la anumite întrebări
care ar putea apărea la care subiectul sau. Învățarea supravegheată este caracterizată prin faptul
că dispune de informații care specifică care seturi de date sunt satisfăcătoare în scopul învățării.
Un exemplu ar putea fi software-ul care recunoaște dacă o imagine dată este sau nu o imagine a
unei fețe: pentru învățarea programului ar trebui să furnizăm imagini diferite, precizând în acest
proces dacă sunt sau nu fețe.
Cu toate acestea, în învățarea nesupravegheată, programul nu dispune de date care să definească
ce informații sunt satisfăcătoare sau nu. Obiectivul principal al acestor programe este, de obicei,
acela de a găsi modele care să permită separarea și clasificarea datelor în diferite grupuri, în
funcție de atributele acestora. În urma exemplului anterior, un program de învățare
nesupravegheat nu ne-ar putea spune dacă o imagine dată este o față sau nu, dar ar putea, de
exemplu, să clasifice imaginile printre cele care conțin fețe umane, animale sau cele care nu
conțin. Informațiile obținute printr-un algoritm de învățare nesupravegheat trebuie interpretate
ulterior de o persoană pentru a le da utilitate.

Un motor de căutare este un program apelabil căutător, care accesează  în mod frecvent și care


stochează titlul, cuvinte cheie și, parțial, chiar conținutul paginilor web într-o baza de date. În
momentul în care un utilizator apelează la un motor de căutare pentru a găsi o informație, o
anumită frază sau un cuvânt, motorul de căutare se va uita în această bază de date și, în funcție
de anumite criterii de prioritate, va crea și afișa o listă de rezultate. Motoarele de cautare initiale
detineau un index cu câteva sute de mii de pagini si documente, si receptionau si serveau cam
doua mii de cereri pe zi. Astazi, un motor de cautare de vârf indexeaza sute de milioane sau chiar
miliarde de pagini si raspunde la zeci de milioane de interogari pe zi. Când se vorbeste despre
motoare de cautare pe Internet, se vorbeste în general despre motoare de cautare pe World Wide
Web. Totusi, înainte ca web-ul sa devina partea proeminenta a Internetului, existau si alt fel de
motoare de cautare, care permiteau utilizatorilor sa gaseasca informatii în Internet. Astfel, exista
si astazi, dar se utilizeaza foarte putin, programe precum "gopher" sau "Archie", care tineau
indexuri de fisiere stocate pe serverele conectate le Internet, reducând în mod semnificativ
timpul necesar gasirii programelor sau documentelor. La sfârsitul anilor 1980, utilizarea la
maximum a Internetului însemna utilizarea programelor "gopher", "Archie", "Veronica". Astazi
cei mai multi utilizatori îsi limiteaza cautarile la serverele web, ftp sau de grupuri de dialog.
Înainte ca un motor de cautare sa poate spuna utilizatorilor unde se gasesc anumite documente,
acestea trebuie sa fie mai întâi gasite. Pentru a gasi informatii din miliardele de pagini web, un
motor de cautare foloseste o aplicatie speciala, numita "robot de cautare" sau "spider", pentru a
construi o lista de cuvinte gasite în paginile web. Procesul prin care un spider îsi construieste
lista se numeste "web crawling", iar pentru ca un motor de cautare spider sa construiasca o lista
eficienta de cuvinte, acesta trebuie sa caute printr-o multime de pagini.

Un spider îsi începe cautarea prin web pornind de obicei de la o lista cu servere intens utilizate si
cu pagini web foarte populare. Spider-ul va începe cu un site popular, indexând cuvintele din
pagini si urmând toate legaturile gasite în site-ul respectiv, ajungând în acest fel sa traverseze si
sa indexeze partea cea mai utilizata a web-ului. Mentinerea unui sistem rapid însemna de
asemenea construirea unui sistem care sa alimenteze spider-ii cu informatii. Astfel, Google.com
initial avea un server dedicat pentru a oferi URL-uri spider-ilor. Google avea de asemenea si
propriul server DNS, translatarea numelor în adrese fiind semnificativ mai rapida, micsorând în
acelasi timp si întârzierile datorate retelelor. Alti spider-i folosesc alte procedee pentru indexare,
permitând, spre exemplu, spider-ilor sa opereze mai rapid sau sa permita utilizatorilor sa caute
mai eficient sau ambele. De exemplu, unii spider-i mentin o lista de cuvinte din titlu, subtitlu si
legaturi, împreuna cu cele mai utilizate 100 de cuvinte din pagina si fiecare cuvânt din primele
20 de linii de text. Se pare ca Lycos utilizeaza aceasta modalitate de indexare a continutului
paginilor web.

Alte sisteme, precum AltaVista.com, merg în alta directie, indexând toate cuvintele din pagina,
inclusiv toate cuvintele de legatura sau "nesemnificative". Aceasta împingere catre
completitudine are si alte modalitati de functionare, mai ales prin utilizarea meta-tag-urilor.

Meta-tag-urile permit proprietarului unei pagini sa specifice cuvintele cheie si conceptele sub
care va fi indexata pagina respectiva. Acest lucru poate fi folositor în cazul în care cuvintele din
pagina pot avea doua sau mai multe semnificatii, meta-tag-urile ghidând motorul de cautare în
alegerea celei mai corecte semnificatii pentru cuvintele respective. Exista de asemenea si
anumite pericole în utilizarea acestor tag-uri, deoarece un proprietar neatent sau fara scrupule ar
putea adauga meta-tag-uri care sa se potriveasca celor mai populare subiecte, fara ca acestea sa
aiba nimic cu continutul în sine al paginii. Pentru o protectie împotriva acestei practici, spider-ii
coreleaza de obicei continutul paginii cu meta-tag-urile, respingând tag-urile care nu se potrivesc
cu cuvintele din pagina.

Toate cele de mai sus presupun faptul ca proprietarul paginii sau site-ului doreste ca pagina/site-
ul sa fie inclus în rezultatele activitatii motoarelor de cautare. De multe ori proprietarii nu doresc
includerea într-un motor de cautare major sau nu doresc indexarea anumitor pagini dintr-un site.
Pentru acest lucru a fost dezvoltat protocolul de excludere al robotilor (robot exclusion protocol).
Acest protocol, implementat în sectiunea de meta-tag-uri de la începutul unei pagini web,
comunica robotului de cautare sa nu indexeze pagina si/sau sa nu urmareasca nici unul din link-
urile din pagina respectiva.

Dupa ce spider-ii au terminat sarcina de gasire a informatiilor în paginile web (trebuie sa notam
faptul ca aceasta sarcina nu se termina niciodata - din cauza naturii mereu schimbatoare a web-
ului, spider-ii indexeaza pagini în permanenta), motorul de cautare trebuie sa stocheze
informatiile adunate într-o modalitate utilizabila. În cel mai simplu caz, un motor de cautare doar
va stoca cuvintele si URL-ul unde au fost gasite. În realitate, acest lucru ar face dintr-un motor
de cautare unul cu utilizari limitate, deoarece nu ar exista nici o modalitate de a spune daca acel
cuvânt a fost utilizat într-un context important sau unul trivial în pagina respectiva, nici daca acel
cuvânt a fost utilizat o singura data sau de mai multe ori, sau daca pagina contine legaturi catre
alte pagini cu acel cuvânt. Cu alte cuvinte, nu ar fi nici o posibilitate de a construi un clasament
care ar încerca sa prezinte cele mai utile pagini la începutul listei de rezultate.
Pentru a crea si afisa cele mai utile rezulte, cele mai multe motoare de cautare stocheaza mult
mai multe date decât cuvântul si URL-ul în care a fost gasit. Un motor ar putea stoca numarul de
aparitii al cuvântului în pagina, putând de asemenea sa asigneze câte o "greutate" fiecarei intrari,
cu valori mai mari atasate cuvintelor care apar catre începutul documentului, în subtitluri,
legaturi, meta-tag-uri sau titlul paginii. Fiecare motor de cautare comercial are diferite formule
sau modalitati pentru asignarea greutatii pentru cuvintele din index. Acesta este unul din
motivele pentru care o cautare dupa acelasi cuvânt în motoare de cautare diferite va produce liste
de rezultate diferite, cu paginile prezentate în ordini diferite, chiar daca sunt indexate aceleasi
pagini.

Fara a tine cont de combinatia precisa de informatii aditionale stocate de un motor de cautare,
datele vor fi stocate în mod codat, pentru a economisi spatiul de stocare. De exemplu,
documentul original de prezentare al Google.com utiliza 2 bytes, fiecare din 8 biti, pentru a stoca
informatii referitoare la greutate: cuvântul era scris cu litere mari, marimea fontului, pozitia sau
alte informatii necesare clasificarii. Fiecare factor putea lua 2 sau 3 biti în cei 2 bytes, având ca
rezultat stocarea unui volum mare de informatii într-un spatiu foarte compact.

Robotica) Robotica este un iinterdisciplinar zona de cercetare la


interfața informatica și Inginerie. Robotica presupune proiectarea, construcția, funcționarea și
utilizarea roboti. Scopul roboticii este de a proiecta mașini inteligente care să poată ajuta și asista
oamenii în viața lor de zi cu zi și să-i păstreze pe toți în siguranță.
Robotica dezvoltă mașini care pot înlocui oamenii și pot replica acțiunile umane. Roboții pot fi
folosiți în multe situații și în multe scopuri, dar astăzi mulți sunt folosiți în medii periculoase
(inclusiv inspecția materialelor radioactive, detectarea bombelor și dezactivare), procesele de
fabricație sau în cazul în care oamenii nu pot supraviețui (de exemplu, în spațiu, sub apă, la
căldură ridicată și curățarea și izolarea materialelor periculoase și a radiațiilor). Roboții pot lua
orice formă, dar unele sunt făcute să semene cu oamenii în aparență. Se spune că acest lucru
ajută la acceptarea unui robot în anumite comportamente replicative efectuate de obicei de către
oameni. Astfel de roboți încearcă să reproducă mersul pe jos, ridicarea, vorbirea, cunoașterea sau
orice altă activitate umană. Mulți dintre roboții de astăzi sunt inspirați de natură, contribuind la
domeniul robotica bio-inspirata. Pe măsură ce tot mai mulți roboți sunt proiectați pentru sarcini
specifice, această metodă de clasificare devine mai relevantă. De exemplu, mulți roboți sunt
proiectați pentru lucrări de asamblare, care pot să nu fie ușor de adaptat pentru alte aplicații. Sunt
denumiți ca „roboți de asamblare”. Pentru sudarea cusăturilor, unii furnizori furnizează sisteme
complete de sudare cu robotul, adică echipamentele de sudură împreună cu alte facilități de
manipulare a materialelor, cum ar fi platourile etc., ca unitate integrată. Un astfel de sistem
robotizat integrat este numit „robot de sudură” chiar dacă unitatea sa de manipulare discretă ar
putea fi adaptată la o varietate de sarcini. Unii roboți sunt proiectați special pentru manipularea
încărcăturilor grele și sunt etichetați ca „roboți grele”. În prezent, cea mai mare parte (plumb-
acid) baterii sunt folosite ca sursă de energie. Multe tipuri diferite de baterii pot fi utilizate ca
sursă de energie pentru roboți. Acestea variază de la bateriile cu plumb-acid, care sunt sigure și
au o durată de depozitare relativ lungă, dar sunt destul de grele în comparație cu bateriile
argintiu-cadmiu, care au un volum mult mai mic și sunt în prezent mult mai scumpe. Proiectarea
unui robot alimentat cu baterii trebuie să țină cont de factori precum siguranța, durata de viață a
ciclului și greutate. Generatoare, de multe ori un anumit tip de motor cu combustie interna, poate
fi de asemenea folosit. Cu toate acestea, astfel de modele sunt deseori complexe mecanic și au
nevoie de combustibil, necesită disipare de căldură și sunt relativ grele. O legătură care
conectează robotul la o sursă de alimentare ar elimina complet sursa de alimentare din robot.
Acest lucru are avantajul de a economisi greutate și spațiu prin mutarea tuturor componentelor
de generare a energiei și de stocare în altă parte. Cu toate acestea, acest design vine cu
dezavantajul de a avea în mod constant un cablu conectat la robot, care poate fi dificil de
gestionat. Marea majoritate a roboților folosesc motoare electrice, de multe ori motoare de curent
continuu periate și fără perii în roboți portabili sau motoare de curent alternativ în roboți
industriali și  mașini. Aceste motoare sunt adesea preferate în sistemele cu sarcini mai ușoare și
unde forma predominantă de mișcare este rotațională.
În majoritatea aplicațiilor practice de viziune pe computer, computerele sunt pre-programate
pentru a rezolva o anumită sarcină, dar metodele bazate pe învățare devin din ce în ce mai
frecvente.

Sistemele de viziune pe computer se bazează pe senzori de imagine care detectează radiația


electromagnetică care este de obicei sub forma uneia dintre ele lumina vizibila sau lumina
infrarosie. Senzorii sunt proiectați folosind fizica solid-state. Procesul prin care lumina se
propagă și se reflectă pe suprafețe este explicat folosind optica. Senzorii de imagine sofisticati
necesită chiar mecanica curenta pentru a oferi o înțelegere completă a procesului de formare a
imaginii. Roboții pot fi, de asemenea, echipați cu mai mulți senzori de viziune pentru a putea
calcula mai bine sensul adâncimii din mediu. La fel ca ochii umani, „ochii” roboților trebuie, de
asemenea, să se poată concentra pe o anumită zonă de interes și, de asemenea, să se adapteze la
variațiile intensității luminii.
Există un subcamp în cadrul viziunii computerizate în care sistemele artificiale sunt concepute
pentru a imita procesarea și comportamentul sistemul biologic, la diferite niveluri de
complexitate. De asemenea, unele dintre metodele bazate pe învățare dezvoltate în cadrul
viziunii computerizate își au originea în biologie.

S-ar putea să vă placă și