Documente Academic
Documente Profesional
Documente Cultură
ESEU
COORDONATOR DISCIPLINĂ
STUDENT
Timişoara, 2019
0
UNIVERSITATEA DE VEST DIN TIMIŞOARA
FACULTATEA DE SOCIOLOGIE ȘI PSIHOLOGIE
DEPARTAMENTUL DE ȘTIINȚE ALE EDUCAȚIEI
SPECIALIZAREA:
De ce suntem departe
de inteligența
artificială generală?
COORDONATOR DISCIPLINĂ
STUDENT
Timişoara, 2019
1
Cuprins
1. Introducere...................................................................................................................3
3. Concluzii.....................................................................................................................6
Bibliografie și webografie..................................................................................................7
2
1. Introducere
Ellen Ullman (2017, pp. 160-171) începea un eseu scris în 2003 vorbind despre un robot
pisică cumpărat în acea perioadă. Acel robot era capabil de a cere atenție de la „stăpân” atunci
când era neglijat. Eseul se numește „Este pisica Sadie un șiretlic?”. Sadie, însă, este numele
pisicii lui Ullman, nu al robotului. Întrebarea care se pune este dacă putem distinge
comportamentul programat al unui robot de cel dezvoltat al unei pisici reale. Ambele folosesc
„șiretlicuri” pentru a genera răspunsuri. Șaisprezece ani mai târziu, în anul 2019, avem robotul
Sophia, un robot umanoid foarte realist care a primit cetățenie în Arabia Saudită, precum și
Duplex de la Google, un sistem de voce bazat pe inteligență artificială care sună uman.
Toate aceste exemple de aplicații în inteligența artificială sunt în esență șiretlicuri.
Aceste sisteme apar inteligente deoarece simulează anumite comportamente. În cazul robotului
Sophia și serviciului Google Duplex acestea simulează comportament uman, deși în mod diferit.
Altele, roboți precum cel din eseul lui Ullman, au fost proiectate pentru a provoca reacții de la
oamenii cu care interacționează. Astăzi, când vorbim despre inteligența artificială, vorbim fie de
diverse aplicații precum cele menționate, fie de algoritmii din spatele acestora. Algoritmii sunt
mecanismele care permit acestor aplicații să simuleze în aparență inteligența.
În acest eseu, voi argumenta că suntem departe de a dezvolta ceea ce se numește
inteligență artificială puternică sau generală, adică mașini care pot gândi. Deși căutarea a început
în 1950 odată cu apariția computerului digital și a trecut prin mai multe etape și școli de gândire,
suntem la fel de departe acum precum eram în 2003, doar „șiretlicurile” au devenit mai
sofisticate. Voi arăta că abordarea curentă în domeniul inteligenței artificiale, deep learning, are
probleme chiar și în sfera sa de aplicare restrânsă. Posibila alternativă, abordarea simbolică, însă,
se confruntă atât cu opoziție din partea adepților abordării curente populare cât și cu faptul că
este complicat de realizat. În final voi expune principalul motiv pentru care abordarea simbolică
eșuează, care este și unul dintre motivele pentru care inteligența artificială puternică este atât de
departe.
3
2. Inteligența artificială acum
2.1.1. Oile nu sunt pe pajiște
Paradigma curentă în domeniul inteligenței artificiale, deep learning, are niște neajunsuri
clare. Algoritmii de deep learning sunt folosiți în special pentru a rezolva probleme de
clasificare. Clasificarea și recunoașterea imaginilor este exemplul cel mai răspândit. Aici ar
trebui să exceleze astfel de algoritmi, însă acest lucru nu se întâmplă. Încă întâmpină probleme în
anumite situații.
Microsoft are un API (Application Programming Interface) pentru clasificarea imaginilor.
Acest API este o rețea neuronală. În urma unor teste (Shane, 2018) s-a putut observa că acest
algoritm găsește oi pe pajiști unde nu sunt oi. Deși nu putem spune că această rețea neuronală
poate înțelege conceptele de pajiște sau oaie, s-a creat o legătură statistică între conceptul de
pajiște și conceptul de oaie. Astfel, rețeaua neuronală „crede” că pajiștea este locul unde apar de
obicei oi. Pentru că rețeaua neuronală nu înțelege conceptele, nu poate distinge între asociații
probabilistice și caracteristici ale unei entități. Deși oile pot fi deseori găsite pe o pajiște nu este o
caracteristică necesară a oilor să se găsească pe o pajiște, la fel cum nu este o caracteristică a
pajiștilor să conțină oi.
Aceeași slăbiciune găsită în exemplul oilor inexistente de pe pajiște apare și în alte
situații. Rețele neuronale bazate pe algoritmi de deep learning prezintă vulnerabilități la date de
intrare excepționale, inclusiv date de intrare non-adversariale care apar natural (Alcorn și alții,
2019). Dacă se rotește conținutul unei imagini rețelele neuronale nu mai clasifică imaginea
corect. De exemplu, o rețea neuronală care clasifică corect o imagine cu un autobuz al școlii pe
un drum înzăpezit nu mai clasifică corect un autobuz răsturnat pe același drum înzăpezit. Îl
clasifică drept plug de zăpadă. Același lucru se întâmplă cu imagini reale în mai multe situații.
Apare aceeași problemă a lipsei de înțelegere a ceea ce înseamnă un concept.
Punctul forte al rețelelor neuronale ar trebui să fie siguranța. Pentru un actor uman ar
trebui să fie dificil să concureze cu toate datele analizate de acea rețea neuronală. Cu toate
acestea s-a descoperit că există tehnici care pot să determine o rețea neuronală să clasifice greșit
anumite imagini. Mai mult aceasta este o tehnică care se poate generaliza la rețele neuronale care
au folosit alte date de intrare pentru a se antrena (Szegedy și alții, 2013). Această tehnică
folosește imagini care apar identice pentru ochiul uman ceea ce arată că o rețea neuronală bazată
pe algoritmi de deep learning nu își păstrează avantajele nici acolo unde ar trebui să exceleze.
4
O soluție propusă este aceea de a dezvolta tehnici hibrid care țin cont și de simboluri,
asocieri și concepte (Marcus, 2018). Acest lucru este nu numai dificil ci și în antiteză cu
paradigma curentă. Deși majoritatea aplicațiilor software folosesc manipularea simbolurilor și
logica simbolică, algoritmii de deep learning nu funcționează astfel. Nu este loc pentru logica
simbolică în deep learning.
5
utilitar. Google Duplex poate să imite incertitudinea umană în vorbire, dar nu poate să o
înțeleagă. Google Duplex nu o să facă niciodată pauză în vorbire atunci când se așază pe scaun.
Google Duplex nu are de ce să se așeze pe scaun, nu poate fi niciodată obosit.
3. Concluzii
În acest eseu am argumentat că inteligența artificială generală este departe de a fi
dezvoltată. Exemplele cele mai populare de aplicații în domeniul inteligenței artificiale se
bazează pe șiretlicuri și au slăbiciuni pronunțate. Chiar și în aplicațiile de clasificare a imaginilor
rețelele neuronale bazate pe algoritmi de deep learning nu recunosc întotdeauna imaginile.
Această limitare se datorează faptului că algoritmii pe care se bazează nu facilitează înțelegerea
6
conceptelor, ci se bazează strict pe tehnici statistice. Pentru ca acestea să înțeleagă conceptele
este nevoie de o schimbare de paradigmă.
Viitorul însă este incert. Este puțin probabil ca paradigma deep learning să admită
schimbare, iar pentru a ajunge să avem sisteme inteligente care înțeleg concepte umane este
nevoie să găsim noi algoritmi pentru reprezentarea acestora. Până atunci ne vom confrunta cu
aceleași limite. Nu vom avea decât rețele neuronale care greșesc în moduri previzibile, dar pe
care algoritmii de deep learning nu le pot remedia, precum și aplicații care par inteligente pentru
că se bazează pe simularea unui anumit comportament.
Un sistem inteligent este mai mult decât un sistem care este perceput ca fiind inteligent.
Google Duplex și robotul Sophia nu sunt sisteme inteligente, iar sistemele de recunoaștere a
imaginilor nu funcționează inteligent, ci probabilistic.
7
Bibliografie și webografie
Alcorn, M.A., Gong, Q. Li, Z., Wang, C., Mai, L., Ku, W. S., și Nguyen, A. "Strike (with) a Pose:
Neural Networks Are Easily Fooled by Strange Poses of Familiar Objects",
arXiv:1811.11553 [cs.CV]. [Accesat 05.01.2019].
Dreyfus, H. L. (1992). What Computers Still Can't Do: A Critique of Artificial Reason, Ediția a
treia. Cambridge Massachusetts: The MIT Press.
Gershgorn, D. "Inside the mechanical brain of the world’s first robot citizen", Quartz,
12.11.2017. [Online]. Disponibil: https://qz.com. [Accesat 05.01.2019].
Lomas, A. "Duplex shows Google failing at ethical and creative AI design", TechCrunch,
10.05.2018. [Online]. Disponibil: https://techcrunch.com. [Accesat 05.01.2019].
Marcus, G. " Why Robot Brains Need Symbols", Nautilus, 06.12.2018. [Online]. Disponibil:
http://nautil.us. [Accesat 05.01.2019].
Shane, J. (2019). "This Neural Net Hallucinates Sheep", Nautilus, 07.03.2018. [Online].
Disponibil: http://nautil.us. [Accesat 05.01.2019].
Szegedy, C. , Zaremba, W., Sutskever, I., Bruna, J., Erhan, D, Goodfellow, I. și Fergus, R.
"Intriguing properties of neural networks", arXiv:1312.6199 [cs.CV]. [Accesat
05.01.2019].
Ullman, E. (2017). Life in Code: A Personal History of Technology. New York: MCD / Farrar,
Straus and Giroux.