Sunteți pe pagina 1din 5

Ființele artificiale capabile de gândire apăreau în antichitate ca tehnici narative[26] și au fost obișnuite în

ficțiune, ca în Frankenstein al lui Mary Shelley sau RUR (Rossum's Universal Robots) al lui Karel Čapek.
[27] Aceste personaje și destinul lor au ridicat multe din aceleași probleme discutate acum în etica
inteligenței artificiale.[22]

Studiul raționamentului „formal” (mecanic) a început cu filozofii și matematicienii din Antichitate.


Studiul logicii matematice a condus direct la teoria computației a lui Alan Turing, care sugera că o
mașină, amestecând simboluri simple ca „0” și „1”, ar putea simula orice acțiune de deducție
matematică posibilă. Această observație, că calculatoarele numerice pot simula orice proces de
raționament formal, este cunoscută sub numele de teza Church-Turing.[28] Odată cu descoperirile
concurente din neurobiologie, teoria informației și cibernetică, cercetătorii au luat în considerare
posibilitatea creării unui creier electronic. Turing a sugerat că „dacă un om nu ar putea distinge între
răspunsurile unei mașini și cele ale unui om, atunci mașina ar putea fi considerată «inteligentă»”.[29]
Prima lucrare care este acum recunoscută în general ca fiind de IA a fost „neuronii artificiali” Turing-
compleți(d) ai lui McCullouch(d) și Pitts(d).[30]

Domeniul cercetării IA s-a născut la un workshop(d) la Colegiul Dartmouth(d) în 1956.[31] Participantii


Allen Newell (CMU(d)), Herbert Simon (CMU(d)), John McCarthy (MIT), Marvin Minsky (MIT) și Arthur
Samuel(d) (IBM) au devenit fondatorii și liderii cercetarii IA.[32] Ei și studenții lor au produs programe pe
care presa le-a descris ca fiind „uimitoare“:[33] calculatoarele învățau strategii de dame (c . 1954)[34] (și
până în 1959 ajunseseră să joace mai bine decât media jucătorilor umani),[35] să rezolve probleme de
algebră, să demonstreze teoreme logice (Logic Theorist(d), prima rulare c. 1956) și să vorbească în
engleză.[36] Până la mijlocul anilor 1960, cercetarea în SUA a fost finanțată în mare măsură de
Departamentul Apărării,[37] și s-au înființat laboratoare în întreaga lume.[38] Fondatorii IA erau
optimiști în privința viitorului: Herbert Simon prezicea: „mașinile vor fi capabile, în decurs de douăzeci de
ani, să facă orice lucru poate face un om”. Marvin Minsky era de acord, scriind: „într-o generație...
problema creării «inteligenței artificiale» va fi rezolvată substanțial”.[10]

Ei nu puteau însă identifica dificultatea unor sarcini rămase de realizat. Progresul a încetinit, iar în 1974,
în urma criticii lui James Lighthill(d)[39] și a presiunii continue a Congresului SUA de a finanța proiecte
mai productive, guvernele american și britanic au întrerupt cercetarea exploratorie în IA. Următorii
câțiva ani aveau mai târziu să fie numiți „iarna IA(d)”,[12] o perioadă în care obținerea de finanțare
pentru proiectele de IA a fost dificilă.

La începutul anilor 1980, cercetarea IA a fost revitalizată de succesul comercial al unor sisteme expert,
[40] o formă de programe IA care simulau cunoștințele și abilitățile analitice ale experților umani. Până
în 1985, piața pentru IA a ajuns la peste un miliard de dolari. În același timp, proiectul japonez de
calculator de generația a cincea(d) a inspirat guvernele american și britanic să reînceapă finanțarea
cercetării academice.[11] Cu toate acestea, începând cu prăbușirea pieței de mașini Lisp(d) în 1987, IA a
căzut din nou în dizgrație și a început o a doua pauză de durată.[13]
La sfârșitul anilor 1990 și începutul secolului al XXI-lea, IA a început să fie folosită pentru logistică, data
mining, diagnostic medical și în alte domenii.[25] Succesul s-a datorat creșterii puterii de calcul (vezi
Legea lui Moore), accentului mai mare pus pe rezolvarea problemelor specifice, legături noi între IA și
alte domenii (cum ar fi statistica, economia și matematica) și angajamentul cercetătorilor față de
metodele matematice și standardele științifice.[41] Deep Blue a devenit primul sistem de joc de șah pe
calculator care l-a învins pe campionul mondial de șah, Garry Kasparov, la 11 mai 1997. [42]

În 2011, la o emisiune-concurs(d) Jeopardy!, într-un meci demonstrativ, sistemul de răspuns la întrebări


al IBM, Watson, i-a învins detașat pe cei mai mari doi campioni la Jeopardy!, Brad Rutter(d) și Ken
Jennings(d).[43] Calculatoarele mai rapide, îmbunătățirile algoritmice și accesul la cantități mari de date
au permis progresul învățării automate și percepției mașinilor; metodele de învățare profundă mari
consumatoare de date au început să domine testele de acuratețe prin jurul anului 2012.[44] Kinect, care
oferă o interfață 3D de mișcare corporală pentru Xbox 360 și Xbox One, utilizează algoritmi care au
rezultat din îndelungate cercetări de IA,[45] la fel ca asistenții personali inteligenți(d) din smartphone-
uri.[46] În martie 2016, AlphaGo(d) a câștigat 4 din 5 jocuri de go într-un meci cu campionul la go Lee Se-
dol(d), devenind primul sistem de joc go care a învins un jucător profesionist de go fără handicap(d).[9]
[47] La Future of Go Summit(d) din 2017, AlphaGo(d) a câștigat un meci de trei jocuri(d) cu Ke Jie(d),[48]
care la acea vreme deținea locul 1 în clasamentul mondial de clasament de doi ani.[49][50] Acest lucru a
marcat finalizarea unui reper important în dezvoltarea inteligenței artificiale, deoarece go este un joc
extrem de complex, mult mai complex decât șahul.

Potrivit lui Jack Clark de la Bloomberg(d), anul 2015 a fost un an de referință pentru inteligența
artificială, numărul de proiecte software care utilizează IA la Google crescând de „utilizare sporadică” în
2012 la peste 2.700 de proiecte. Clark prezintă, de asemenea, date factuale care indică faptul că ratele
de eroare din software-ul de procesare a imaginilor au scăzut semnificativ începând cu 2011.[51] El
atribuie acest lucru unei creșteri a rețelelor neurale accesibile, datorită creșterii infrastructurii de cloud
computing și a creșterii numărului de instrumente și seturi de date pentru cercetare.[14] Alte exemple
menționate includ dezvoltarea de către Microsoft a unui sistem Skype care poate traduce automat dintr-
o limbă în alta și sistemul Facebook care poate descrie imaginile pentru nevăzători.[51] Într-un sondaj
din 2017, una din cinci companii a raportat că „a încorporat IA în anumite oferte sau procese”.[52][53] În
preajma lui 2016, China a accelerat foarte mult finanțarea guvernamentală; având în vedere cantitatea
mare de date disponibilă acolo și producția sa de cercetare în creștere rapidă, unii observatori consideră
că ar putea fi pe cale să devină o „superputere IA”.[54][55]

Elementele de bază

O IA tipică își analizează mediul și efectuează acțiuni care îi maximizează șansele de succes.[1] Funcția
utilitate (sau obiectiv) dorită pentru o OA poate fi simplă („1 dacă IA câștigă jocul de go, 0 în caz
contrar”) sau complexă („efectuează acțiuni matematic asemănătoare celor care au reușit în trecut”).
Obiectivele pot fi definite explicit sau induse. Dacă IA este programată pentru „învățarea prin
întărire(d)”, obiectivele pot fi induse implicit prin recompensarea unor tipuri de comportament sau prin
pedepsirea altora.[a] Alternativ, un sistem evolutiv poate induce scopuri prin folosirea unei funcții de
fitness(d) pentru a muta și replica în mod preferențial sistemele AI cu scoruri mari, similar cu modul în
care animalele au evoluat pentru a-și dori în mod inerent anumite obiective, cum ar fi găsirea de
alimente. [56] Unele sisteme AI, cum ar fi cel mai apropiat vecin, în loc de rațiune prin analogie, aceste
sisteme nu au scopuri generale, cu excepția cazului în care scopurile sunt implicite în datele lor de
instruire. [57] Astfel de sisteme pot fi încă evaluate, dacă sistemul non-goal este încadrat ca un sistem al
cărui "scop" este de a-și îndeplini cu succes sarcina îngustă de clasificare. [58]

IA gravitează adesea în jurul utilizării algoritmilor. Un algoritm este un set de instrucțiuni neechivoce pe
care un calculator mecanic le poate executa.[b] Un algoritm complex este adesea construit pe baza altor
algoritmi mai simpli. Un exemplu simplu al unui algoritm este următoarea rețetă (optimă pentru primul
jucător) la jocul de X și 0:[59]

Dacă cineva „amenință” (adică are două pe rând), ocupă pătratul rămas. In caz contrar,

dacă o mișcare „ramifică” pentru a crea două amenințări simultan, joacă această mișcare. În caz contrar,

ocupă pătratul central dacă acesta este liber. În caz contrar,

dacă adversarul a jucat într-un colț, ocupă colțul opus. În caz contrar,

ocupă un colț gol dacă există unul. În caz contrar,

ocupă orice pătrat gol.

Mulți algoritmi IA sunt capabili să învețe din date; se pot îmbunătăți prin învățarea unor noi euristici(d)
(strategii sau „reguli generale”, care au funcționat bine în trecut) sau pot scrie alți algoritmi. Unii dintre
„învățăceii” descriși mai jos, între care rețelele bayesiene, arborii de decizie și cel mai apropiat vecin, ar
putea teoretic (dacă dispun de date, timp și memorie infinite) să învețe să aproximeze orice funcție,
inclusiv combinația de funcții matematice care ar descrie cel mai bine lumea. Prin urmare, acești
cursanți ar putea să obțină toate cunoștințele posibile, luând în considerare toate ipotezele posibile și
potrivindu-le cu datele. În practică, aproape niciodată nu se poate lua în considerare orice posibilitate,
din cauza fenomenului de „explozie combinatorică(d)”, în care timpul necesar pentru a rezolva o
problemă crește exponențial. O mare parte din cercetarea de IA implică determinarea modului de
identificare și de evitare a unei game largi de posibilități care sunt puțin probabil să fie benefice.[60][61]
De exemplu, atunci când se vizualizează o hartă și se caută pentru cel mai scurt drum care duce de la
Denver la New York, în cele mai multe cazuri, se poate sări peste orice drum prin San Francisco sau alte
zone aflate mult la vest; astfel, o IA care utilizează un algoritm de trasare a traiectoriei ca A*(d) poate
evita explozia combinatorie care ar rezulta dacă ar trebui calculat fiecare traseu posibil în parte.[62]

Cea mai veche abordare de IA a fost simbolismul (cum ar fi logica formală): „Dacă un adult altfel sănătos
are febră, atunci poate să aibă gripă”. O a doua abordare, mai generală, este inferența bayesiană: „Dacă
pacientul curent are febră, ajustează probabilitatea ca acesta să aibă gripă așa sau așa”. Cea de-a treia
abordare majoră, extrem de populară în aplicațiile de IA de afaceri de rutină, sunt analogizatori precum
SVM(d) și cel mai apropiat vecin(d): „După examinarea înregistrărilor despre pacienți cunoscuți din
trecut, a căror temperatură, simptome, vârstă și alți factori se potrivesc cel mai mult cu pacientul actual,
acei pacienți s-au dovedit a avea gripă”. O a patra abordare este mai greu de înțeles intuitiv, dar este
inspirată de felul în care funcționează mecanismul creierului: abordarea cu rețele neurale artificiale
folosește „neuroni” artificiali care pot învăța prin compararea cu rezultatul dorit și modificând punctele
tari ale conexiunilor dintre neuronii săi interni pentru a „întări” conexiunile care par astfel utile. Aceste
patru abordări principale se pot suprapune între ele și cu sisteme evolutive; de exemplu, rețelele
neurale pot învăța să facă inferențe, să generalizeze și să facă analogii. Unele sisteme utilizează, implicit
sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de IA și non-IA; [63] adesea,
cea mai bună abordare diferă în funcție de problemă.[64][65]

Linia albastră ar putea fi un exemplu de overfitting(d) a unei funcții liniare din cauza zgomotului
aleatoriu.

Algoritmii de învățare funcționează pe baza faptului că strategiile, algoritmii și inferențele care au


funcționat bine în trecut vor continua să funcționeze bine și în viitor. Aceste concluzii pot fi evidente,
cum ar fi „întrucât soarele a răsărit în fiecare dimineață pentru ultimele 10.000 de zile, probabil că va
răsări și mâine dimineață”. Ele pot fi nuanțate, cum ar fi „X% din familii au specii separate din punct de
vedere geografic cu variante de culoare, deci există o șansă de Y% să existe lebede negre încă
nedescoperite”. Mașinile de învățare lucrează și pe baza „briciului lui Occam”: cea mai simplă teorie care
explică datele este cea mai probabilă. Prin urmare, pentru a avea succes, o mașină care învață trebuie
concepută astfel încât să prefere teoriile mai simple celor mai complexe, cu excepția cazurilor în care
teoria complexă se dovedește a fi substanțial mai bună. Blocarea pe o teorie foarte complexă, dar
proastă, care se potrivește cu toate datele de învățare din trecut, se numește overfitting. Multe sisteme
încearcă să reducă overfittingul recompensând o teorie în funcție de cât de bine se potrivește cu datele,
dar și penalizând-o în funcție de cât de complexă este.[66] Pe lângă suprapunerea clasică, mașinile pot
dezamăgi și „învățând lecția greșită”. Un exemplu este un clasificator de imagini antrenat numai pe
imagini de cai maro și pisici negre ar putea concluziona că toate petecele de culoare brună ar putea fi
cai.[67] Un exemplu din lumea reală este că, spre deosebire de oameni, clasificatoarele de imagine
actualee nu determină relația spațială dintre componentele imaginii; în schimb, ele învață modele
abstracte de pixeli pe care oamenii le ignoră, dar care se corelează liniar cu imaginile anumitor tipuri de
obiecte reale. Suprapunând superficial un astfel de model pe o imagine legitimă are drept rezultat o
imagine „contradictorie” pe care sistemul nu o poate clasifica.[c][68][69][70]

Un sistem de conducere automată poate folosi o rețea neurală pentru a determina care părți ale
imaginii par să se potrivească cu imaginile anterioare de pietoni din procesul de antrenare și apoi să
modeleze acele zone ca niște prisme dreptunghiulare care se mișcă încet, dar întrucâtva imprevizibile, și
care trebuie evitate.[71][72]
În comparație cu oamenii, IA existente nu dispun de mai multe trăsături ale „raționamentului de bun
simț(d)”; cel mai notabil, oamenii au mecanisme puternice pentru a raționa despre „fizica naivă(d)”, cum
ar fi spațiul, timpul și interacțiunile fizice. Aceasta permite chiar copiilor mici să tragă ușor concluzii cum
ar fi „dacă rostogolesc pixul acest de pe masă, va cădea pe podea”. Oamenii au, de asemenea, un
mecanism puternic de „psihologie populară(d)”, care îi ajută să interpreteze propozițiile în limbaj natural
precum „consilierii locali au refuzat autorizarea unei demonstrații pentru că aceasta militează pentru
violență”. (O IA generică are dificultăți în a deduce dacă consilierii sau demonstranții sunt cei care
pretind că susțin violența.)[73][74][75] Această lipsă de „cultură generală” înseamnă că IA face deseori
alte greșeli decât cele ale oamenilor, în moduri care pot părea de neînțeles. De exemplu, autovehiculele
autonome existente nu pot raționa cu privire la locația și intențiile pietonilor exact așa cum fac oamenii,
iar în schimb trebuie să utilizeze moduri de gândire neumane pentru a evita accidentele.

S-ar putea să vă placă și