Sunteți pe pagina 1din 5

În informatică, inteligența artificială (IA) este inteligența mașinilor, spre deosebire de inteligența naturală de

la oameni și animale. Informatica definește cercetarea IA ca studiu al „agenților inteligenți(d)”: orice dispozitiv
care își percepe mediul și efectuează acțiuni care maximizează șansa de a-și atinge cu succes obiectivele.[1]
[2]
Mai exact, Kaplan și Haenlein definesc IA ca fiind „capacitatea unui sistem de a interpreta corect datele
externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini
specifice printr-o adaptare flexibilă”.[3] Termenul „inteligență artificială” este utilizat colocvial pentru a descrie
mașinile care imită funcțiile cognitive pe care le asociază oamenii cu alte minți umane, cum ar fi „învățarea” și
„rezolvarea problemelor”.[4][5] Inteligența artificială implică dezvoltarea de algoritmi și modele care permit
mașinilor să-și perceapă mediul, să își motiveze mediul și să facă acțiuni adecvate pentru a atinge obiective
specifice. Acești algoritmi folosesc volume mari de date și tehnici avansate, cum ar fi învățarea
automată, învățarea profundă, procesarea limbajului natural și viziunea computerizată.
Întrucât mașinile devin din ce în ce mai capabile, sarcinile considerate a necesita „inteligență” sunt deseori
eliminate din definiția IA, un fenomen cunoscut sub numele de efectul IA(d). O observație în teorema lui Tesler
spune că „IA este ceea ce nu a fost încă făcut”.[6] De exemplu, recunoașterea optică a caracterelor este adesea
exclusă din domeniul AI, după ce a devenit o tehnologie de rutină.[7] Capacitățile moderne ale mașinilor
clasificate în general ca IA includ înțelegerea vorbirii umane,[8] concurarea la cel mai înalt nivel a unor sisteme
de jocuri de strategie (cum ar fi șah și go),[9] autovehiculele autonome și rutarea inteligentă în rețelele de
distribuție a conținutului, și simulările militare(d).
Împrumutând din literatura de management, Kaplan și Haenlein clasifica inteligență artificială în trei tipuri
diferite de sisteme IA: inteligență artificială analitică, inspirată de om, și umanizată.[3] IA analitică are doar unele
caracteristici compatibile cu inteligența cognitivă; ea generează o reprezentare cognitivă a lumii și utilizează
învățarea bazată pe experiențe anterioare pentru a informa deciziile viitoare. IA inspirată de om are elemente
din inteligența cognitivă și emoțională; înțelegerea emoțiilor umane, în plus față de elementele cognitive, și
luarea în considerare a acestora în luarea deciziilor. IA umanizată prezintă caracteristicile tuturor tipurilor de
competențe (de exemplu, inteligența cognitivă, emoțională și socială(d)), este capabilă să fie conștientă de
sine atât ca atare, cât și în interacțiunile cu ceilalți.
Inteligența artificială a fost fondată ca disciplină academică în 1956, și de atunci a trecut mai multe valuri de
optimism,[10][11] urmate de dezamăgiri și pierderi de fonduri (cunoscute sub numele de „ierni ale IA”),[12][13] urmate
și ele de noi abordări, succes și reînnoirea finanțării.[11][14] Pentru cea mai mare parte a istoriei sale, cercetarea
IA a fost împărțită în subdomenii care adesea nu au reușit să comunice între ele.[15] Aceste subdomenii se
bazează pe considerații tehnice, cum ar fi obiective specifice (de exemplu, „robotica” sau „învățarea
automată”),[16] utilizarea unor anumite instrumente („logica” sau rețele neurale artificiale) sau pe diferențe
filosofice profunde.[17][18][19] Subdomeniile se bazau și pe factori sociali (anumite instituții sau activitatea anumitor
cercetători). [15]
Printre problemele (sau obiectivele) tradiționale ale cercetării IA se numără raționamentul(d), reprezentarea
cunoștințelor(d), planificarea(d), învățarea, prelucrarea limbajului natural, percepția(d) și capacitatea de a muta și
manipula obiecte.[16] Inteligența generală se numără printre obiectivele pe termen lung ale domeniului.
[20]
Abordările includ metode statistice, inteligență computațională și IA simbolică tradițională. În AI se folosesc
multe instrumente, între care versiuni de optimizare matematică și de căutare, rețele neurale
artificiale și metode bazate pe statistici, probabilități și economie. Domeniul IA se bazează
pe informatică, inginerie informațională(d), matematică, psihologie, lingvistică, filozofie și multe alte domenii.
Domeniul a fost întemeiat pe afirmația că inteligența umană(d) „poate fi descrisă atât de precis încât poate fi
făcută o mașină pentru a o simula”.[21] Acest lucru ridică argumente filosofice cu privire la natura minții și la
etica creării de ființe artificiale dotate cu inteligență umană, care sunt chestiuni care au fost explorate
de mit(d), ficțiune(d) și filozofie(d) încă din Antichitate.[22] Unii oameni consideră și că IA ar fi un pericol pentru
omenire dacă progresează necontrolat.[23] Alții cred că, spre deosebire de revoluțiile tehnologice anterioare, IA
va crea un risc de șomaj în masă(d). [24]
În secolul al XXI-lea, tehnicile de IA au înregistrat o renaștere în urma unor progrese concomitente în puterea
de calcul(d), acumulării de cantități mari de date, și înțelegerii teoretice; iar tehnicile IA au devenit o parte
esențială a industriei tehnologice(d), ajutând la rezolvarea multor probleme dificile în domeniul
informaticii, ingineriei software și cercetării operaționale(d).[25][14]

Istorie[modificare | modificare sursă]


Ființele artificiale capabile de gândire apăreau în antichitate ca tehnici narative[26] și au fost obișnuite în ficțiune,
ca în Frankenstein al lui Mary Shelley sau RUR (Rossum's Universal Robots) al lui Karel Čapek.[27] Aceste
personaje și destinul lor au ridicat multe din aceleași probleme discutate acum în etica inteligenței artificiale.[22]
Studiul raționamentului formal a început cu filozofii și matematicienii din Antichitate. Studiul logicii matematice a
condus direct la teoria computației a lui Alan Turing, care sugera că o mașină, amestecând simboluri simple ca
„0” și „1”, ar putea simula orice acțiune de deducție matematică posibilă. Această observație, că calculatoarele
numerice pot simula orice proces de raționament formal, este cunoscută sub numele de teza Church-Turing.
[28]
Odată cu descoperirile concurente din neurobiologie, teoria informației și cibernetică, cercetătorii au luat în
considerare posibilitatea creării unui creier electronic. Turing a sugerat că „dacă un om nu ar putea distinge
între răspunsurile unei mașini și cele ale unui om, atunci mașina ar putea fi considerată «inteligentă»”.[29] Prima
lucrare care este acum recunoscută în general ca fiind de IA a fost „neuronii artificiali” Turing-compleți(d) ai
lui McCullouch(d) și Pitts(d).[30]
Domeniul cercetării IA s-a născut la un workshop(d) la Colegiul Dartmouth(d) în 1956.[31] Participantii Allen
Newell (CMU(d)), Herbert Simon (CMU(d)), John McCarthy (MIT), Marvin Minsky (MIT) și Arthur Samuel(d) (IBM)
au devenit fondatorii și liderii cercetarii IA.[32] Ei și studenții lor au produs programe pe care presa le-a descris
ca fiind „uimitoare“:[33] calculatoarele învățau strategii de dame (c . 1954)[34] (și până în 1959 ajunseseră să
joace mai bine decât media jucătorilor umani),[35] să rezolve probleme de algebră, să demonstreze teoreme
logice (Logic Theorist(d), prima rulare c. 1956) și să vorbească în engleză.[36] Până la mijlocul anilor 1960,
cercetarea în SUA a fost finanțată în mare măsură de Departamentul Apărării,[37] și s-au înființat laboratoare în
întreaga lume.[38] Fondatorii IA erau optimiști în privința viitorului: Herbert Simon prezicea: „mașinile vor fi
capabile, în decurs de douăzeci de ani, să facă orice lucru poate face un om”. Marvin Minsky era de acord,
scriind: „într-o generație... problema creării «inteligenței artificiale» va fi rezolvată substanțial”.[10]
Ei nu puteau însă identifica dificultatea unor sarcini rămase de realizat. Progresul a încetinit, iar în 1974, în
urma criticii lui James Lighthill(d)[39] și a presiunii continue a Congresului SUA de a finanța proiecte mai
productive, guvernele american și britanic au întrerupt cercetarea exploratorie în IA. Următorii câțiva ani aveau
mai târziu să fie numiți „iarna IA(d)”,[12] o perioadă în care obținerea de finanțare pentru proiectele de IA era
dificilă.
La începutul anilor 1980, cercetarea IA a fost revitalizată de succesul comercial al unor sisteme expert,[40] o
formă de programe IA care simulau cunoștințele și abilitățile analitice ale experților umani. Până în 1985, piața
pentru IA ajunsese la peste un miliard de dolari. În același timp, proiectul japonez de calculator de generația a
cincea(d) a inspirat guvernele american și britanic să reînceapă finanțarea cercetării academice.[11] Cu toate
acestea, începând cu prăbușirea pieței de mașini Lisp(d) în 1987, IA a căzut din nou în dizgrație începând o a
doua pauză de durată.[13]
La sfârșitul anilor 1990 și începutul secolului al XXI-lea pentru data mining, diagnostic medical și în alte
domenii.[25] Succesul s-a datorat creșterii puterii de calcul (vezi Legea lui Moore), accentului mai mare pus pe
rezolvarea problemelor specifice, legături noi între IA și alte domenii (cum ar
fi statistica, economia și matematica) și angajamentul cercetătorilor față de metodele matematice și
standardele științifice.[41] Deep Blue a devenit primul sistem de joc de șah pe calculator care l-a învins pe
campionul mondial de șah, Garry Kasparov, la 11 mai 1997. [42]
În 2011, la o emisiune-concurs(d) Jeopardy!, într-un meci demonstrativ, sistemul de răspuns la
întrebări al IBM, Watson, i-a învins detașat pe cei mai mari doi campioni la Jeopardy!, Brad Rutter(d) și Ken
Jennings(d).[43] Calculatoarele mai rapide, îmbunătățirile algoritmice și accesul la cantități mari de date au permis
progresul învățării automate și percepției mașinilor; metodele de învățare profundă mari consumatoare de date
au început să domine testele de acuratețe prin jurul anului 2012.[44] Kinect, care oferă o interfață 3D de mișcare
corporală pentru Xbox 360 și Xbox One, utilizează algoritmi care au rezultat din îndelungate cercetări de IA,
[45]
la fel ca asistenții personali inteligenți(d) din smartphone-uri.[46] În martie 2016, AlphaGo(d) a câștigat 4 din 5
jocuri de go într-un meci cu campionul la go Lee Se-dol(d), devenind primul sistem de joc go care a învins un
jucător profesionist de go fără handicap(d).[9][47] La Future of Go Summit(d) din 2017, AlphaGo(d) a câștigat un meci
de trei jocuri(d) cu Ke Jie(d),[48] care la acea vreme deținea locul 1 în clasamentul mondial de clasament de doi
ani.[49][50] Acest lucru a marcat finalizarea unui reper important în dezvoltarea inteligenței artificiale, deoarece go
este un joc extrem de complex, mult mai complex decât șahul.
Potrivit lui Jack Clark de la Bloomberg(d), anul 2015 a fost un an de referință pentru inteligența artificială,
numărul de proiecte software care utilizează IA la Google crescând de „utilizare sporadică” în 2012 la peste
2.700 de proiecte. Clark prezintă, de asemenea, date factuale care indică faptul că ratele de eroare din
software-ul de procesare a imaginilor au scăzut semnificativ începând cu 2011.[51] El atribuie acest lucru unei
creșteri a rețelelor neurale accesibile, datorită creșterii infrastructurii de cloud computing și a creșterii numărului
de instrumente și seturi de date pentru cercetare.[14] Alte exemple menționate includ dezvoltarea de către
Microsoft a unui sistem Skype care poate traduce automat dintr-o limbă în alta și sistemul Facebook care poate
descrie imaginile pentru nevăzători.[51] Într-un sondaj din 2017, una din cinci companii a raportat că „a
încorporat IA în anumite oferte sau procese”.[52][53] În preajma lui 2016, China a accelerat foarte mult finanțarea
guvernamentală; având în vedere cantitatea mare de date disponibilă acolo și producția sa de cercetare în
creștere rapidă, unii observatori consideră că ar putea fi pe cale să devină o „superputere IA”.[54][55]

Elementele de bază[modificare | modificare sursă]


O IA tipică își analizează mediul și efectuează acțiuni care îi maximizează șansele de succes.[1] Funcția utilitate
(sau obiectiv) dorită pentru o OA poate fi simplă („1 dacă IA câștigă jocul de go, 0 în caz contrar”) sau
complexă („efectuează acțiuni matematic asemănătoare celor care au reușit în trecut”). Obiectivele pot fi
definite explicit sau induse. Dacă IA este programată pentru „învățarea prin întărire(d)”, obiectivele pot fi induse
implicit prin recompensarea unor tipuri de comportament sau prin pedepsirea altora.[a] Alternativ, un sistem
evolutiv poate induce scopuri prin folosirea unei funcții de fitness(d) pentru a muta și replica în mod preferențial
sistemele AI cu scoruri mari, similar cu modul în care animalele au evoluat pentru a-și dori în mod inerent
anumite obiective, cum ar fi găsirea de alimente. [56] Unele sisteme AI, cum ar fi cel mai apropiat vecin, în loc de
rațiune prin analogie, aceste sisteme nu au scopuri generale, cu excepția cazului în care scopurile sunt
implicite în datele lor de instruire. [57] Astfel de sisteme pot fi încă evaluate, dacă sistemul non-goal este
încadrat ca un sistem al cărui "scop" este de a-și îndeplini cu succes sarcina îngustă de clasificare. [58]
IA gravitează adesea în jurul utilizării algoritmilor. Un algoritm este un set de instrucțiuni neechivoce pe care un
calculator mecanic le poate executa.[b] Un algoritm complex este adesea construit pe baza altor algoritmi mai
simpli. Un exemplu simplu al unui algoritm este următoarea rețetă (optimă pentru primul jucător) la jocul de X și
0:[59]

1. Dacă cineva „amenință” (adică are două pe rând), ocupă pătratul rămas. In caz contrar,
2. dacă o mișcare „ramifică” pentru a crea două amenințări simultan, joacă această mișcare. În caz
contrar,
3. ocupă pătratul central dacă acesta este liber. În caz contrar,
4. dacă adversarul a jucat într-un colț, ocupă colțul opus. În caz contrar,
5. ocupă un colț gol dacă există unul. În caz contrar,
6. ocupă orice pătrat gol.
Mulți algoritmi IA sunt capabili să învețe din date; se pot îmbunătăți prin învățarea unor noi euristici(d) (strategii
sau „reguli generale”, care au funcționat bine în trecut) sau pot scrie alți algoritmi. Unii dintre „învățăceii”
descriși mai jos, între care rețelele bayesiene, arborii de decizie și cel mai apropiat vecin, ar putea teoretic
(dacă dispun de date, timp și memorie infinite) să învețe să aproximeze orice funcție, inclusiv combinația de
funcții matematice care ar descrie cel mai bine lumea. Prin urmare, acești cursanți ar putea să obțină toate
cunoștințele posibile, luând în considerare toate ipotezele posibile și potrivindu-le cu datele. În practică,
aproape niciodată nu se poate lua în considerare orice posibilitate, din cauza fenomenului de „explozie
combinatorică(d)”, în care timpul necesar pentru a rezolva o problemă crește exponențial. O mare parte din
cercetarea de IA implică determinarea modului de identificare și de evitare a unei game largi de posibilități care
sunt puțin probabil să fie benefice.[60][61] De exemplu, atunci când se vizualizează o hartă și se caută pentru cel
mai scurt drum care duce de la Denver la New York, în cele mai multe cazuri, se poate sări peste orice drum
prin San Francisco sau alte zone aflate mult la vest; astfel, o IA care utilizează un algoritm de trasare a
traiectoriei ca A*(d) poate evita explozia combinatorie care ar rezulta dacă ar trebui calculat fiecare traseu posibil
în parte.[62]
Cea mai veche abordare de IA a fost simbolismul (cum ar fi logica formală): „Dacă un adult altfel sănătos are
febră, atunci poate să aibă gripă”. O a doua abordare, mai generală, este inferența bayesiană: „Dacă pacientul
curent are febră, ajustează probabilitatea ca acesta să aibă gripă așa sau așa”. Cea de-a treia abordare
majoră, extrem de populară în aplicațiile de IA de afaceri de rutină, sunt analogizatori precum SVM(d) și cel mai
apropiat vecin(d): „După examinarea înregistrărilor despre pacienți cunoscuți din trecut, a căror temperatură,
simptome, vârstă și alți factori se potrivesc cel mai mult cu pacientul actual, acei pacienți s-au dovedit a avea
gripă”. O a patra abordare este mai greu de înțeles intuitiv, dar este inspirată de felul în care funcționează
mecanismul creierului: abordarea cu rețele neurale artificiale folosește „neuroni” artificiali care pot învăța prin
compararea cu rezultatul dorit și modificând punctele tari ale conexiunilor dintre neuronii săi interni pentru a
„întări” conexiunile care par astfel utile. Aceste patru abordări principale se pot suprapune între ele și cu
sisteme evolutive; de exemplu, rețelele neurale pot învăța să facă inferențe, să generalizeze și să facă analogii.
Unele sisteme utilizează, implicit sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de
IA și non-IA; [63] adesea, cea mai bună abordare diferă în funcție de problemă.[64][65]

Linia albastră ar putea fi un exemplu de overfitting(d) a unei


funcții liniare din cauza zgomotului aleatoriu.
Algoritmii de învățare funcționează pe baza faptului că strategiile, algoritmii și inferențele care au funcționat
bine în trecut vor continua să funcționeze bine și în viitor. Aceste concluzii pot fi evidente, cum ar fi „întrucât
soarele a răsărit în fiecare dimineață pentru ultimele 10.000 de zile, probabil că va răsări și mâine dimineață”.
Ele pot fi nuanțate, cum ar fi „X% din familii au specii separate din punct de vedere geografic cu variante de
culoare, deci există o șansă de Y% să existe lebede negre încă nedescoperite”. Mașinile de învățare lucrează
și pe baza „briciului lui Occam”: cea mai simplă teorie care explică datele este cea mai probabilă. Prin urmare,
pentru a avea succes, o mașină care învață trebuie concepută astfel încât să prefere teoriile mai simple celor
mai complexe, cu excepția cazurilor în care teoria complexă se dovedește a fi substanțial mai bună. Blocarea
pe o teorie foarte complexă, dar proastă, care se potrivește cu toate datele de învățare din trecut, se numește
overfitting. Multe sisteme încearcă să reducă overfittingul recompensând o teorie în funcție de cât de bine se
potrivește cu datele, dar și penalizând-o în funcție de cât de complexă este.[66] Pe lângă suprapunerea clasică,
mașinile pot dezamăgi și „învățând lecția greșită”. Un exemplu este un clasificator de imagini antrenat numai pe
imagini de cai maro și pisici negre ar putea concluziona că toate petecele de culoare brună ar putea fi cai.
[67]
Un exemplu din lumea reală este că, spre deosebire de oameni, clasificatoarele de imagine actualee nu
determină relația spațială dintre componentele imaginii; în schimb, ele învață modele abstracte de pixeli pe
care oamenii le ignoră, dar care se corelează liniar cu imaginile anumitor tipuri de obiecte reale. Suprapunând
superficial un astfel de model pe o imagine legitimă are drept rezultat o imagine „contradictorie” pe care
sistemul nu o poate clasifica.[c][68][69][70]

Un sistem de conducere automată poate folosi o rețea


neurală pentru a determina care părți ale imaginii par să se potrivească cu imaginile anterioare de
pietoni din procesul de antrenare și apoi să modeleze acele zone ca niște prisme dreptunghiulare
care se mișcă încet, dar întrucâtva imprevizibile, și care trebuie evitate. [71][72]
În comparație cu oamenii, IA existente nu dispun de mai multe trăsături ale „raționamentului de bun simț(d)”; cel
mai notabil, oamenii au mecanisme puternice pentru a raționa despre „fizica naivă(d)”, cum ar fi spațiul, timpul și
interacțiunile fizice. Aceasta permite chiar copiilor mici să tragă ușor concluzii cum ar fi „dacă rostogolesc pixul
acest de pe masă, va cădea pe podea”. Oamenii au, de asemenea, un mecanism puternic de „psihologie
populară(d)”, care îi ajută să interpreteze propozițiile în limbaj natural precum „consilierii locali au refuzat
autorizarea unei demonstrații pentru că aceasta militează pentru violență”. (O IA generică are dificultăți în a
deduce dacă consilierii sau demonstranții sunt cei care pretind că susțin violența.)[73][74][75] Această lipsă de
„cultură generală” înseamnă că IA face deseori alte greșeli decât cele ale oamenilor, în moduri care pot părea
de neînțeles. De exemplu, autovehiculele autonome existente nu pot raționa cu privire la locația și intențiile
pietonilor exact așa cum fac oamenii, iar în schimb trebuie să utilizeze moduri de gândire neumane pentru a
evita accidentele.[76][77][78]
Probleme[modificare | modificare sursă]
Scopul general al cercetării inteligenței artificiale este de a crea o tehnologie care să permită calculatoarelor și
mașinilor să funcționeze într-o manieră inteligentă. Problema generală a simulării (sau a creării) inteligenței a
fost împărțită în subprobleme. Acestea constau în particularități sau capacități pe care cercetătorii se așteaptă
să le prezinte unui sistem inteligent. Caracteristicile descrise mai jos au primit cea mai mare atenție.[16]
Raționamentul, rezolvarea problemelor[modificare | modificare sursă]
Primii cercetători au dezvoltat algoritmi care imită pas cu pas raționamentul pe care oamenii îl folosesc atunci
când rezolvă puzzle-uri sau fac deducții logice.[79] Până la sfârșitul anilor 1980 și 1990, cercetarea IA a elaborat
metode de abordare a informațiilor incerte sau incomplete, folosind concepte din probabilitate și economie.[80]
Acești algoritmi s-au dovedit a fi insuficienți pentru rezolvarea problemelor mari de raționament, deoarece
ajungeau într-o „explozie combinatorică”: deveneau exponențial mai lenți, pe măsură ce problemele creșteau.
[60]
De fapt, chiar și oamenii folosesc rareori deducția pas-cu-pas pe care a reușit să o modeleze cercetarea
timpurie în IA. Ei rezolvă majoritatea problemelor lor folosind judecăți rapide și intuitive.[81]
Reprezentarea cunoștințelor[modificare | modificare sursă]

O ontologie reprezintă cunoștințele ca un set de concepte


în cadrul unui domeniu și relațiile dintre aceste concepte.
Reprezentarea cunoștințelor(d)[82] și ingineria cunoștințelor(d)[83] sunt esențiale pentru cercetarea clasică din IA.
Unele „sisteme expert” încearcă să reunească cunoștințe explicite posedate de experți într-un domeniu îngust.
În plus, unele proiecte încearcă să strângă cunoștințele „de bun simț”, cunoscute oamenilor obișnuiți, într-o
bază de date care conține cunoștințe extinse despre lume. Printre lucrurile pe care o bază cuprinzătoare de
cunoștințe comune ar conține sunt: obiectele, proprietățile, categoriile și relațiile dintre obiecte;[84] situații,
evenimente, stări și timp; [85] cauze și efecte;[86] cunoștințe despre cunoștințe (ce știm despre ceea ce știu
ceilalți);[87] și multe alte domenii mai puțin bine cercetate. O reprezentare a „ceea ce există” este o ontologie(d):
setul de obiecte, relațiile, conceptele și proprietățile descrise formal astfel încât agenții software să le poată
interpreta. Semantica acestor elemente este capturată sub formă de concepte, roluri și indivizi din logica
descriptivă(d) și sunt, de obicei, implementate drept clase, proprietăți și indivizi în OWL.[88] Cele mai generale
ontologii sunt numite ontologii superioare(d), care încearcă să ofere o bază pentru toate celelalte
cunoștințe[89] acționând ca mediatori între ontologiile de domeniu(d) care acoperă cunoștințe specifice despre un
anumit domeniu de cunoștințe (domeniu sau arie de interes). Astfel de reprezentări formale

S-ar putea să vă placă și