Sunteți pe pagina 1din 9

UNIVERSITATEA DE VEST DIN TIMIŞOARA

FACULTATEA DE SOCIOLOGIE ȘI PSIHOLOGIE


DEPARTAMENTUL DE ȘTIINȚE ALE EDUCAȚIEI
SPECIALIZAREA:

ESEU

COORDONATOR DISCIPLINĂ

STUDENT

Timişoara, 2019

0
UNIVERSITATEA DE VEST DIN TIMIŞOARA
FACULTATEA DE SOCIOLOGIE ȘI PSIHOLOGIE
DEPARTAMENTUL DE ȘTIINȚE ALE EDUCAȚIEI
SPECIALIZAREA:

De ce suntem departe
de inteligența
artificială generală?

COORDONATOR DISCIPLINĂ

STUDENT

Timişoara, 2019

1
Cuprins
1. Introducere...................................................................................................................3

2. Inteligența artificială acum.......................................................................................3


2.1. Oile nu sunt pe pajiște...................................................................................3
2.2. Google Duplex nu poate sta pe scaun...........................................................4
2.3. Ce îi face plăcere robotului Sophia?.............................................................5

3. Concluzii.....................................................................................................................6

Bibliografie și webografie..................................................................................................7

2
1. Introducere

Ellen Ullman (2017, pp. 160-171) începea un eseu scris în 2003 vorbind despre un robot
pisică cumpărat în acea perioadă. Acel robot era capabil de a cere atenție de la „stăpân” atunci
când era neglijat. Eseul se numește „Este pisica Sadie un șiretlic?”. Sadie, însă, este numele
pisicii lui Ullman, nu al robotului. Întrebarea care se pune este dacă putem distinge
comportamentul programat al unui robot de cel dezvoltat al unei pisici reale. Ambele folosesc
„șiretlicuri” pentru a genera răspunsuri. Șaisprezece ani mai târziu, în anul 2019, avem robotul
Sophia, un robot umanoid foarte realist care a primit cetățenie în Arabia Saudită, precum și
Duplex de la Google, un sistem de voce bazat pe inteligență artificială care sună uman.
Toate aceste exemple de aplicații în inteligența artificială sunt în esență șiretlicuri.
Aceste sisteme apar inteligente deoarece simulează anumite comportamente. În cazul robotului
Sophia și serviciului Google Duplex acestea simulează comportament uman, deși în mod diferit.
Altele, roboți precum cel din eseul lui Ullman, au fost proiectate pentru a provoca reacții de la
oamenii cu care interacționează. Astăzi, când vorbim despre inteligența artificială, vorbim fie de
diverse aplicații precum cele menționate, fie de algoritmii din spatele acestora. Algoritmii sunt
mecanismele care permit acestor aplicații să simuleze în aparență inteligența.
În acest eseu, voi argumenta că suntem departe de a dezvolta ceea ce se numește
inteligență artificială puternică sau generală, adică mașini care pot gândi. Deși căutarea a început
în 1950 odată cu apariția computerului digital și a trecut prin mai multe etape și școli de gândire,
suntem la fel de departe acum precum eram în 2003, doar „șiretlicurile” au devenit mai
sofisticate. Voi arăta că abordarea curentă în domeniul inteligenței artificiale, deep learning, are
probleme chiar și în sfera sa de aplicare restrânsă. Posibila alternativă, abordarea simbolică, însă,
se confruntă atât cu opoziție din partea adepților abordării curente populare cât și cu faptul că
este complicat de realizat. În final voi expune principalul motiv pentru care abordarea simbolică
eșuează, care este și unul dintre motivele pentru care inteligența artificială puternică este atât de
departe.

3
2. Inteligența artificială acum
2.1.1. Oile nu sunt pe pajiște
Paradigma curentă în domeniul inteligenței artificiale, deep learning, are niște neajunsuri
clare. Algoritmii de deep learning sunt folosiți în special pentru a rezolva probleme de
clasificare. Clasificarea și recunoașterea imaginilor este exemplul cel mai răspândit. Aici ar
trebui să exceleze astfel de algoritmi, însă acest lucru nu se întâmplă. Încă întâmpină probleme în
anumite situații.
Microsoft are un API (Application Programming Interface) pentru clasificarea imaginilor.
Acest API este o rețea neuronală. În urma unor teste (Shane, 2018) s-a putut observa că acest
algoritm găsește oi pe pajiști unde nu sunt oi. Deși nu putem spune că această rețea neuronală
poate înțelege conceptele de pajiște sau oaie, s-a creat o legătură statistică între conceptul de
pajiște și conceptul de oaie. Astfel, rețeaua neuronală „crede” că pajiștea este locul unde apar de
obicei oi. Pentru că rețeaua neuronală nu înțelege conceptele, nu poate distinge între asociații
probabilistice și caracteristici ale unei entități. Deși oile pot fi deseori găsite pe o pajiște nu este o
caracteristică necesară a oilor să se găsească pe o pajiște, la fel cum nu este o caracteristică a
pajiștilor să conțină oi.
Aceeași slăbiciune găsită în exemplul oilor inexistente de pe pajiște apare și în alte
situații. Rețele neuronale bazate pe algoritmi de deep learning prezintă vulnerabilități la date de
intrare excepționale, inclusiv date de intrare non-adversariale care apar natural (Alcorn și alții,
2019). Dacă se rotește conținutul unei imagini rețelele neuronale nu mai clasifică imaginea
corect. De exemplu, o rețea neuronală care clasifică corect o imagine cu un autobuz al școlii pe
un drum înzăpezit nu mai clasifică corect un autobuz răsturnat pe același drum înzăpezit. Îl
clasifică drept plug de zăpadă. Același lucru se întâmplă cu imagini reale în mai multe situații.
Apare aceeași problemă a lipsei de înțelegere a ceea ce înseamnă un concept.
Punctul forte al rețelelor neuronale ar trebui să fie siguranța. Pentru un actor uman ar
trebui să fie dificil să concureze cu toate datele analizate de acea rețea neuronală. Cu toate
acestea s-a descoperit că există tehnici care pot să determine o rețea neuronală să clasifice greșit
anumite imagini. Mai mult aceasta este o tehnică care se poate generaliza la rețele neuronale care
au folosit alte date de intrare pentru a se antrena (Szegedy și alții, 2013). Această tehnică
folosește imagini care apar identice pentru ochiul uman ceea ce arată că o rețea neuronală bazată
pe algoritmi de deep learning nu își păstrează avantajele nici acolo unde ar trebui să exceleze.

4
O soluție propusă este aceea de a dezvolta tehnici hibrid care țin cont și de simboluri,
asocieri și concepte (Marcus, 2018). Acest lucru este nu numai dificil ci și în antiteză cu
paradigma curentă. Deși majoritatea aplicațiilor software folosesc manipularea simbolurilor și
logica simbolică, algoritmii de deep learning nu funcționează astfel. Nu este loc pentru logica
simbolică în deep learning.

2.2. Google Duplex nu poate sta pe scaun


Chiar dacă ne-am dori ca software-ul care ne clasifică imaginile să știe ce este o oaie,
acest lucru este dificil de realizat. Folosim concepte umane pentru a explica concepte din
tehnologia informației, dar nu avem o modalitate bună de a face mașinile să înțeleagă conceptele
umane.
Algoritmii și programele pot fi comparate cu o rețetă. Pentru a găti ceva, trebuie să
urmăm anumiți pași, să luăm decizii în funcție de uneltele și ingredientele pe care le avem la
dispoziție și să facem aceste lucruri într-o anumită ordine. Pașii pentru pregătirea unui ceai pot fi
imaginați ca un algoritm. De fapt, folosirea rețetei ca o ilustrație a ceea ce este un algoritm sau
un program este deja un clișeu. Cu toate acestea, a construi un robot care ar putea găti după o
rețetă scrisă de un om este o sarcină foarte complexă (Ullman, 2017, pp. 181-195). Acest robot
ipotetic ar avea nevoie de logica simbolică menționată anterior și asocieri la un nivel foarte
complex. Complexitate care vine din însăși condiția umană.
Hubert Dreyfus (1992) folosește conceptul de scaun pentru a ilustra această
complexitate. Există nenumărate tipuri de scaun, de la scaune de bucătărie până la scaune în
cabinetul unui dentist. Pe aceste scaune se stă în mod diferit și există mai multe moduri de a sta
pe un scaun care țin nu numai de caracterul utilitar al scaunului ci și de norme sociale. Nu stăm
la fel pe scaun la dentist și la cină pentru că aceste scaune au utilități diferite, dar nu stăm nici la
fel pe scaun la birou sau la un interviu (Dreyfus, 1992). De asemenea, putem sta într-un scaun
confortabil sau neconfortabil. Entitățile fără corp nu pot avea conceptul de confort.
Corporalitatea umană nu este ușor de mapat în software.
Google Duplex este un exemplu de software pur care folosește totuși șiretlicuri pentru a
părea uman. Duplex vorbește ca un om. Face pauze. Are momente când se poate spune că se
bâlbâie. Își poate păcăli interlocutorii umani. Persoanele cu care a discutat, în necunoștință de
cauză, nu și-au dat seama că discută cu un sistem software (Lomas, 2018). S-ar putea spune că
acest lucru este suficient pentru a avea un sistem inteligent, însă Google Duplex este un sistem

5
utilitar. Google Duplex poate să imite incertitudinea umană în vorbire, dar nu poate să o
înțeleagă. Google Duplex nu o să facă niciodată pauză în vorbire atunci când se așază pe scaun.
Google Duplex nu are de ce să se așeze pe scaun, nu poate fi niciodată obosit.

2.3. Ce îi face plăcere robotului Sophia?


A spune că software-ul nu are corp pare tautologic, dar chiar acest lucru împiedică
aplicațiile în inteligența artificială să aibă o inteligență umană, o inteligență organică. Ullman
vorbește despre suferință și plăcere ca teste pentru a determina dacă un organism este conștient
(Ullman, 2017, pp. 181-195). Se pune întrebarea de ce am crea roboți care pot suferi. Sau poate
se pune întrebarea de ce am crea roboți care pot să simtă plăcere. Practic, întrebarea este dacă
este de dorit să avem o inteligență artificială care este precum cea umană sau dacă poate exista o
inteligență artificială care diferă de cea umană.
Am putut observa că rețelele neuronale nu pot face anumite lucruri pentru că nu înțeleg
conceptele precum oamenii. Nu înțeleg că oile nu sunt pajiștea. Nu pot adăuga „sare după gust”.
Ne-am putea imagina o rețea neuronală care ar determina statistic câtă sare trebuie adăugată fără
să dețină conceptul de sare sau conceptul de gust, dacă ar avea un set de date de intrare despre
câtă sare se adaugă de obicei. Problema este, desigur, faptul că de obicei se adaugă „după gust”.
Pentru ca rețelele neuronale să poate găti ar trebui să schimbăm paradigma gătitului.
Robotul Sophia este probabil cel mai faimos și evident exemplu al unui „șiretlic”.
Software-ul din spatele acestui robot nu se poate numi inteligență artificială (Gershgorn, 2017).
Nu există înțelegere sau inferențe, dar este cel mai reușit exemplu din punctul de vedere al
aparențelor. Nici nu se poate vorbi despre aceasta fără a o antropomorfiza. Este o ea, nu un
sistem. Este un cetățean, nu un robot. Cu toate acestea, Sophia nu ar putea găti după o rețetă
nouă, și cu siguranță nu ar putea adăuga „sare după gust”.

3. Concluzii
În acest eseu am argumentat că inteligența artificială generală este departe de a fi
dezvoltată. Exemplele cele mai populare de aplicații în domeniul inteligenței artificiale se
bazează pe șiretlicuri și au slăbiciuni pronunțate. Chiar și în aplicațiile de clasificare a imaginilor
rețelele neuronale bazate pe algoritmi de deep learning nu recunosc întotdeauna imaginile.
Această limitare se datorează faptului că algoritmii pe care se bazează nu facilitează înțelegerea

6
conceptelor, ci se bazează strict pe tehnici statistice. Pentru ca acestea să înțeleagă conceptele
este nevoie de o schimbare de paradigmă.
Viitorul însă este incert. Este puțin probabil ca paradigma deep learning să admită
schimbare, iar pentru a ajunge să avem sisteme inteligente care înțeleg concepte umane este
nevoie să găsim noi algoritmi pentru reprezentarea acestora. Până atunci ne vom confrunta cu
aceleași limite. Nu vom avea decât rețele neuronale care greșesc în moduri previzibile, dar pe
care algoritmii de deep learning nu le pot remedia, precum și aplicații care par inteligente pentru
că se bazează pe simularea unui anumit comportament.
Un sistem inteligent este mai mult decât un sistem care este perceput ca fiind inteligent.
Google Duplex și robotul Sophia nu sunt sisteme inteligente, iar sistemele de recunoaștere a
imaginilor nu funcționează inteligent, ci probabilistic.

7
Bibliografie și webografie
Alcorn, M.A., Gong, Q. Li, Z., Wang, C., Mai, L., Ku, W. S., și Nguyen, A. "Strike (with) a Pose:
Neural Networks Are Easily Fooled by Strange Poses of Familiar Objects",
arXiv:1811.11553 [cs.CV]. [Accesat 05.01.2019].
Dreyfus, H. L. (1992). What Computers Still Can't Do: A Critique of Artificial Reason, Ediția a
treia. Cambridge Massachusetts: The MIT Press.
Gershgorn, D. "Inside the mechanical brain of the world’s first robot citizen", Quartz,
12.11.2017. [Online]. Disponibil: https://qz.com. [Accesat 05.01.2019].
Lomas, A. "Duplex shows Google failing at ethical and creative AI design", TechCrunch,
10.05.2018. [Online]. Disponibil: https://techcrunch.com. [Accesat 05.01.2019].
Marcus, G. " Why Robot Brains Need Symbols", Nautilus, 06.12.2018. [Online]. Disponibil:
http://nautil.us. [Accesat 05.01.2019].
Shane, J. (2019). "This Neural Net Hallucinates Sheep", Nautilus, 07.03.2018. [Online].
Disponibil: http://nautil.us. [Accesat 05.01.2019].
Szegedy, C. , Zaremba, W., Sutskever, I., Bruna, J., Erhan, D, Goodfellow, I. și Fergus, R.
"Intriguing properties of neural networks", arXiv:1312.6199 [cs.CV]. [Accesat
05.01.2019].
Ullman, E. (2017). Life in Code: A Personal History of Technology. New York: MCD / Farrar,
Straus and Giroux.

S-ar putea să vă placă și