Documente Academic
Documente Profesional
Documente Cultură
1
§1 Cadrul problemei
1
Mare neurobiology britanic.
2
Este vorba de Marvin Minski de la M.I.T. a cărui celebră afirmaţie preluată de New York Times a făcut
carieră. El spunea că “Acum construim calculatoare atât de inteligente încât vom fi norocoşi dacă vor dori
să ne mai păstreze fie şi ca animale de casă ” (“We’re now making computers that are so smart that we’ll be
lucky if they’re willing to keep us around the house as household pets”).
3
Computaţionalismul sau teza tare a inteligenţei artificiale (strong A.I.) susţine punctul de vedere conform
căruia putem re-crea o minte cu toate aspectele sale pe cale strict computaţională [computaţional=
sintactic, prin manipulare de simboluri aşa cum se întâmplă în orice calculator digital] în timp ce teza slabă
a inteligenţei artificiale [weak A.I. sau cautious A.I.] spune că putem simula doar anumite aspecte ale
minţii, scop în care calculatorul se dovedeşte un instrument de nepreţuit pentru o înţelegere mai amplă a
funcţionării minţii umane.
4
Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457
2
decade. Mai mult de atât Searle acuză întreaga cercetare ce merge “pe mâna”
computaţionalismului ca fiind “o eroare de proporţii” iar teoria computaţională a
minţii doar o ideologie extrem de atractivă.
Problemele filosofice importante pe care le pune în discuţie Searle în acest
argument sunt raportul dintre sintaxă şi semantică, intenţionalitatea, înţelegerea,
simularea, duplicarea şi implicit problema conştiinţei.
În lucrarea de faţă vom analiza argumentul camerei chinezeşti aşa cum îl
prezintă Searle, răspunsul său la replicile primite după care vom încerca să
schiţăm propriile concluzii.
3
filosofiilor ce încercau să ofere o explicaţie a complexităţii cu ajutorul unor
mecanisme extrem de simple.
A doua idee fundamentală în construcţia unei teorii computaţionale a minţii
era ideea de algoritm, mai exact, ideea unei proceduri prin care o problemă este
rezolvată urmându-se un anumit număr de paşi. Importanţa conceptului de
algoritm în cadrul discursului nostru este aceea că, un program de calculator, este
de fapt un algoritm care dă maşinii(hardware) un set de reguli pentru manipularea
unuor simboluri (0 şi 1).
A treia idee constitutivă o reprezintă teza Church sau aşa cum este ea mai
cunoscută, teza Church-Turing7 care poate fi rezumată astfel: orice algoritm poate
fi rulat pe o maşină Turing, orice problemă matematică ce poate fi rezolvată
algoritmic poate fi rezolvată şi de un calculator, poate fi rezolvată computaţional
de o maşină Turing. Mai aproape de jargonul matematic putem spune că orice
funcţie calculabilă, care este orice funcţie matematică ce are o soluţie la care poţi
ajunge urmând o serie de paşi, poate fi implementată într-un computer şi rezolvată.
Cu alte cuvinte, un computer poate face orice poate face şi un algoritm sau, există
un algoritm pentru orice problemă.
A patra idee ce stă la baza concepţiei computaţionale a minţii este dată de
Teorema Turing, matematic dovedită ca teoremă, spre deosebire de Teza Church-
Turing. Aceasta spune că există o maşină Turing universală care poate simula
orice altă maşină Turing ce este proiectată să rezolve o anumită problemă.
Aşadar, până acum ştim ce este o maşină Turing, ce este un algoritm şi ce
poate face el şi mai ştim de asemenea că orice problemă poate fi soluţionată cu
ajutorul unui algoritm, că acesta poate fi implementat într-o maşină Turing şi că
există de asemenea o altă maşină Turing ce poate simula orice altă maşină Turing.
În continuare, cea de-a cincea idee extrem de influentă ce a condus la
conceperea unei teorii computaţionale a minţii este Testul Turing. După cum arată
şi numele, acest test a fost inventat de Alan Turing care, punându-şi problema
creării de programe ce aveau să simuleze inteligenţa umană, avea nevoie de un
criteriu cu ajutorul căruia să detecteze şi să poată spune când maşină(program)
poate fi decretată ca inteligentă. Acest criteriu este testul Turing. Acest test8 a fost
descris de autorul său astfel: dacă avem într-o cameră un om care pune întrebări şi
răspunde iar în altă cameră o maşină ce răspunde şi pune întrebări la rândul ei iar
în mijloc un “expert” ca mediator9 între cele două camere, fiind cel ce
manipulează întrebările şi răspunsurile celor două părţi şi dacă acesta nu poate
face nici un fel de diferenţă între întrebările şi răspunsurile celor două părţi, atunci
va spune că maşina are acelaşi nivel de inteligenţă ca şi operatorul uman.
7
Asupra acestei teze, independent elaborată, au lucrat Alonzo Church, Alan Turing şi Emil Post. Ea nu are
decât statutul de teză din cauza inexistenţei unei definiţii satisfăcătoare a noţiunii de algoritm despre care
nu putem avea decât o imagine vagă, intuitivă (intuitive image).
8
Testul Turing – pentru prima oară publicat în revista Mind, în 1950.
9
Expertul menţionat de Turing este de fapt un intermediar în comunicare şi, mai important, un arbitru.
4
Coroborarea acestor idei a dus la o suspiciune ce avea să devină ipoteza şi
chiar paradigma multor oameni de ştiinţă: ceea ce ascundem în craniile noastre,
creierul, este de fapt o maşină Turing universală. Desigur, spuneau apărătorii
ideii, nu poate fi exact de felul celei proiectate de Turing, ci diferită, cu un
program diferit, cu un hardware biologic şi nu mecanic, însă, atenţie, în principiu
identică. Atfel, credeau ei, s-au sfârşit secolele de eroare pentru că: în sfârşit avem
soluţia, am descifrat misterul minţii umane. Mai mult, avem şi un test obiectiv ce
ne fereşte de eroare şi oferă în acelaşi timp şi o direcţie cercetărilor ce trebuie să
urmeze. Totul devenise o chestiune de timp şi răbdare. Trebuia doar să aşteptăm
până când noii ingineri ai naturii umane vor crea maşini inteligente, era ceva
iminent.
5
întreabă retoric Searle ? La concluzia că interlocutorul său chiar înţelege chineza,
ba mai mult, că poate fi chiar un vorbitor nativ de chineză. Această concluzie este
perfect conformă testului Turing. În acest moment realizăm mai multe lucruri,
concluzionează Searle:
11
Penrose, Roger, Incertitudinile raţiunii.Umbrele minţii, Editura Tehnică, Bucureşti, 1999, pp. 63.
12
Intenţionalitatea defineşte acea trăsătură a conştiinţei de a fi direcţionată “către ceva” sau “a fi despre
ceva”. Intenţionalitatea apare în toate stările conştiente, în gândurile, dorinţele, credinţele noastre, care
vizează sau sunt “despre ceva” şi mai ales în capacitatea noastră volitivă. A nu fi confundată cu qualia care
presupun intenţionalitatea însă sunt diferite ca natură, fiind stări calitative, ele fiind constituite din acea
„senzaţie de ceva” [what is it like].
6
uragan real poate produce catastrofe după cum “digestia din calculator” nu poate
în fapt să digere absolut nimic.
Există un context cauzal între creier şi conştiinţă, mai exact creierul
cauzează conştiinţa care este consecinţa unui proces natural, aceasta este părerea
categorică alui Searle.
7
etc. Robotul întruneşte toate condiţiile din punct de vedere behaviorist pentru a nu-
l suspecta că-i lipseşte înţelegerea, în acest caz nu putem spune decât că posedă
înţelegere în toate acţiunile sale. Totuşi, spune Searle, nici această perspectivă nu
schimbă mare lucru deşi, remarcă autorul, în mod tacit şi în defavoarea lor, cei ce
au formulat această replică admit că procesul cognitiv nu este doar o chestiune de
manipulare formală a simbolurilor din moment ce se introduce un set de relaţii
cauzale cu lumea exterioară. Răspunsul la această replică este un alt experiment
mental. Să presupunem că în locul computerului din robot mă aflu eu, John Searle,
în camera chinezească, iar simbolurile pe care le primesc acum nu sunt doar
ideograme chineze ci fel de fel de simboluri primite de la senzorii externi. În
conformitate cu informaţiile primite eu asamblez răspunsurile ce vor deveni apoi
reacţii, acţiuni, vorbire etc., iar dacă sunt complet izolat în camera mea eu nu am
nici cea mai vagă idee despre faptul că aceste instrucţiuni pe care eu le restitui sunt
cuvinte, mişcări, acţiuni. Pentru mine sunt doar nişte simboluri de neînţeles.
4.3 Replica simulării creierului [The Brain Simulator Reply]. Să
presupunem că putem crea un program de calculator care nu este o reprezentare
exterioară despre lume ci simulează creierul unui vorbitor nativ de chineză, în care
este inclus fiecare neuron cu toate legăturile sinaptice pe care le are cu alţi
neuroni, aceasta în timp ce vorbeşte, înţelege o povestire în chineză şi oferă
răspunsuri înapoi. Computerul ia povestirea şi întrebările ca input-uri, în timp ce
creierul vorbitorului nativ de chineză este simulat neuron cu neuron de computer,
procesează informaţia şi apoi dă răspunsurile înapoi întocmai ca şi creierul
vorbitorului nativ de chineză.. În acest caz, afirmă susţinătorii I.A., nu putem
spune despre calculator că nu înţelege, pentru că, din moment ce este o copie
fidelă a creierului, acest lucru ar însemna să negăm că există o înţelegere a limbii
chineze chiar la vorbitorul nativ de chineză ceea ce este absurd. Searle răspunde
printr-un alt experiment mental. Cunoscând faptul că un program este multiplu
realizabil , adică poate fi implementat în orice mediu construit să suporte
computaţia, ne putem imagina o altă versiune a camerei chinezeşti în care un om
este conectat la un set de tuburi cu rol de sinapse neurale, prevăzute cu valve ce
pot fi puse în poziţia de on sau off, prin care primeşte înformaţiile, consultă
regulile din limba pe care o înţelege (engleză), şi apoi aşează valvele în poziţiile
corespunzătoare(on sau off), care sunt interpretate asemenea impulsurilor ce trec
de la un neuron la altul. Întreg sistemul este astfel conectat, imitând conexiunile
neuronale, încât în cele din urmă reuşeşte să dea răspunsurile care trebuie la input-
urile primite. Unde este înţelegerea într-un astfel de sistem, se întreabă Searle ?
Omul nu poate înţelege nimic din moment ce nu face altceva decât să închidă şi să
deschidă nişte comutatoare cât despre conducte sau valve nici nu poate fi vorba.
Problema acestui argument conchide Searle este că atâta vreme cât simulează doar
structura formala a sinapselor şi neuronilor nu simulează ceea ce este mai
important în creier şi anume proprietăţile sale cauzale şi abilitatea acestuia de a
produce stări intenţionale.
8
4.4 Replica combinaţiei [The Combination Reply]. Acest argument, este
cel mai complet şi mai abil fiind în fapt o combinaţie a primelor trei. Imaginaţi-vă
un robot ce poartă în craniul său un computer, computerul la rândul lui fiind o
simulare a unui creier cu toţi neuronii şi toate sinapsele iar comportamentul
robotului este indiscernabil de comportamentul oricărei fiinţe omeneşti. Întreg
sistemul se poartă unitar şi nu doar ca un sistem input-output. Unui astfel de
android complex nu putem să-i negăm intenţionalitatea, afirmă susţinătorii I.A iar
Searle de dă dreptate dar nu pentru mult timp ci doar până când privim androidul
mai îndeaproape şi vedem cum funcţionează. Imediat însă descoperim adevărul:
este un computer, un computer care, la fel ca toate celelalte computere,
manipulează simboluri printr-un procedeu strict sintactic, fără nici un fel de
valoare semantică. În acest moment nu mai putem să-i atribuim intenţionalitate sau
înţelegere pentru că se supune obiecţiilor camerei chinezeşti la fel ca oricare alt
computer.
4.5 Replica celorlalte minţi[The Other Minds Reply]. Cum ne putem da
seama dacă cineva înţelege chineza ? Datorită comportamentului, desigur. În acest
caz, dacă un calculator trece de toate testele behavioriste aşa cum se întâmplă cu o
persoană reală atunci nu avem nici un temei să respingem cogniţia la calculatoare.
Răspunsul lui Searle la această replică este scurt: chestiunea pusă în discuţie de
argumentul camerei chinezeşti nu este cum ştiu eu că dacă alţi oameni au stări
mentale sau nu, ci aceea de a şti ce înseamnă atribuirea acestor stări unor persoane
şi ce presupune acest lucru. În acest sens, argumentul afirmă clar că atribuirea
unor astfel de stări nu se poate face doar pe baza simplei manipulări de simboluri.
4.6 Replica intuiţiei [The Intuition Reply]. Acest argument, pe care eu l-aş
numi argumentul epistemic vizează nişte aspecte ce nu ţin de plauzibilitatea sau
structura logică a argumentului ci, mai degrabă, nişte aspecte de ordin
epistemologic. Hans Moravec, director al Institutului de Robotică de la
Universitatea Carnegie Mellon, avertizează asupra faptului că poziţia lui Searle
trădează caracteristici ale demersului tradiţional în filosofia minţi, mod de gândire
ce nu mai ţine pasul cu noile ştiinţe ale cogniţiei. Astfel, argumentul lui Searle
pare să se bazeze pe asumpţia conform căreia calculatorul(sau omul din camera
chinezească), nu pot gândi sau înţelege. Ned Block vine în sprijinul lui Moravec
spunând că “Argumentul lui Searle depinde de forţa asumpţiei potrivit căreia
anumite entităţi nu pot gândi”. De asemenea, Block, evidenţiază faptul că intuiţiile
(asumpţiile) noastre tradiţionale pot şi trebuie să fie dărâmate de noile descoperiri
şi de aceea, poate că este necesar să revizuim conceptul nostru de înţelegere
(understanding) în contextul unei realităţi în care roboţii aparţin aceleiaţi clase ca
şi oamenii13. Cu alte cuvinte, multe din descoperirile tehnologice14 ne-au forţat să
13
Stanford Encyclopedia of Philosophy, Chinese Room Argument, The Intuition Reply
http://plato.stanford.edu/entries/chineseroom/
14
De pildă mijloacele de investigaţie optică precum microscopul ce a deschis calea spre microunivers
stimulând ştiinţe precum biologia, fizica sau chimia şi telescopul ce a determinat o schimbare a viziunii
noastre despre univers şi apariţia unei ştiinţe noi, astronomia.
9
ne schimbăm modul de a privi, înţelege şi descrie lumea iar calculatorul nu este
deloc exclus să se afle în rândul acestui tip de descoperiri.
§5 Concluzii
Opinia conform căreia acum nu putem crea calculatoare inteligente dar
peste câteva zeci de ani da este suficient de răspândită iar John Searle combate şi
acest mod de a gândi cu hotărâre. Perspectiva computaţională, crede el, este
viciată încă din start de o eroare de fundament iar lipsa rezultatelor nu are nici o
legătură cu nivelul tehnologic prezent. Dezvoltarea tehnologică nu ne poate oferi
altceva decât metode prin care putem implementa cu mai mult succes programele,
precum şi o tehnologie hardware mai rapidă. Pentru a ne da seama de acest lucru,
filosoful american ne sugerează să ne întoarcem la ceea ce este de fapt un
calculator şi corelatul său: computaţia aşa cum a fost ea definită de Alan Turing.
Computaţia15 nu este altceva decât manipularea formală a simbolurilor iar
computerul16 este dispozitivul [device] ce serveşte acestui scop.
În colecţia de eseuri reunită sub titlul Consciousness and Language17,
Searle va mai aduce şi alte obiecţii computaţionalismului despre care spune că,
alături de behaviorism, că este una din cele mai uzuale erori atunci când încercăm
să creăm o ştiinţă a conştiinţei. Sursa acestei erori este testul Turing ce se face
vinovat de acreditarea uneia din cele mai aclamate gafe ştiinţifice. Mai mult,
Searle aproape că regretă atenţia prea mare pe care a acordat-o
computaţionalismului, care, afirmă filosoful american, nici măcar nu poate fi
acuzată de falsitate, ci doar de lipsă de claritate. Searle introduce o distincţie între
proprietăţi intrinseci naturii şi trăsături ce ţin de observator. Din prima categorie
15
“O problemă matematică este computabilă dacă, în principiu, poate fi rezolvată de un dispozitiv [device]
computaţional. Câteva sinonime des întâlnite sunt “rezolvabil”, “decidabil”, sau “recursiv”. Hilbert credea
că toate problemele matematice sunt rezolvabile, însă în anii ’30 Godel, Turing şi Church au arătat că nu se
întâmplă astfel. Există studii şi clasificări cuprinzătoare despre ce probleme matematice sunt sau nu sunt
computabile. Mai mult, există o clasificare detaliată a problemelor computabile în clase de complexitate
computaţională, efectuată după un criteriu stabilit de raportul între forţa de calcul necesară şi “mărimea”
unei anumite probleme. Este uimitor cu câtă claritate, eleganţă şi precizie au fost făcute aceste clasificări.”
( “A mathematical problem is computable if it can be solved in principle by a computing device. Some
common synonyms for "computable" are "solvable", "decidable", and "recursive". Hilbert believed that all
mathematical problems were solvable, but in the 1930's Gödel, Turing, and Church showed that this is not
the case. There is an extensive study and classification of which mathematical problems are computable
and which are not. In addition, there is an extensive classification of computable problems into
computational complexity classes according to how much computation — as a function of the size of the
problem instance — is needed to answer that instance. It is striking how clearly, elegantly, and precisely
these classifications have been drawn.” [Stanford Encyclopedia of Philosophy
http://plato.stanford.edu/entries/computability/] ).
16
Alan Turing vorbea despre despre computer ca despre o persoană care execută calcule, aceasta
fiind prima definiţie a termenului “computer”, cea care poate fi întâlnită în anii ’30-’40. Ceea ce numim
astăzi computer în timpul lui Turing se numea calculator automat [automatic computer] adică un dispozitiv
ce poate efectua calcule fără a exista vreo intervenţie din partea omului.
17
Searle, R., John, Consciusness and Language, Cambridge University Press, 2002, pp. 15-17.
10
fac parte fenomene ce reprezintă trăsături, caracteristici ale realităţii precum
gravitaţia, fotosinteza, electromagnetismul în timp ce a doua categorie este
constituită din “lucruri” ce nu descriu anumite caracteristici ale realităţii precum
calitatea de a fi o zi frumoasă pentru picnic sau a fi o bancnotă de cinci dolari.
Înţelegerea şi conştiinţa sunt fenomene naturale ce se înscriu într-un lanţ cauzal ce
poate fi cercetat de ştiinţă, crede Searle cu tărie ori computaţionalismul nu există
cu adevărat în natură, este o invenţie a omului ce nu desemnează altceva decât
manipularea de simboluri iar simbolul nu este o noţiune a fizicii sau chimiei.
Astfel, într-o manieră specifică filosofiei analitice de sorginte wittgensteiniană,
Searle afirmă că întrebarea “Este conştiinţa un program de calculator ?” pur şi
simplu nu are sens.
Pe de altă parte, apariţia computaţionalismului nu poate fi pusă doar pe
seama calculatoarelor digitale sau a maşinii Turing aşa cum crede Searle, care au
constituit doar nişte ingrediente necesare apariţiei acestuia ca teorie, mai precis,
condiţii de posibilitate. Apariţia computaţionalismului îşi are rădăcinile pe un
tărâm epistemic vechi de când lumea şi anume în tendinţa de a ne reprezenta
matematic lumea înconjurătoare dublată de idealul de obiectivitate impus de
pozitivism. Dacă anticii foloseau geometria pentru reprezentarea şi cunoaşterea
obiectelor reale, în contemporaneitate nu ar fi fost posibilă o reprezentare a minţii
în manieră clasică însă odată cu apariţia calculatorului digital acest lucru a părut
posibil, trasând totodată o direcţie relativ bine definită cercetărilor ce aveau ca
obiectiv una din problemele esenţiale ce rămăsese ca o pată albă pe harta
cunoaşterii omeneşti: mintea umană.
Ca să vedem că natura este sau nu computaţională în intimitatea legităţii ei
putem consulta şi alte opinii în afară de cele ale lui Searle care respinge cu tărie
aceată posibilitate. Există păreri ce susţin exact contrariul, afirmând că legitatea de
tip computaţional ar constitui chiar trăsătura determinantă a naturii. Cercetători
precum S. Wolfram, E. Fredkin, R. Rucker, G. Chaitin18 susţin natura strict
computaţională a realităţii, deci, implicit şi a minţii noastre. Pe tărâmul lingvisticii
profesorul Ray C. Dougherty de la New York University afirmă natura strict
computaţională a limbajului19, lucru ce ar face posibilă o simulare a inteligenţei
artificiale în sensul propus de adepţii tezei tari a inteligenţei artificiale.
De asemenea, în lipsa unei cunoaşteri temeinice a teoriilor computaţionale,
filosofii “de meserie”, s-au lăsat deseori seduşi de peisajul lingvistic şi s-au grăbit
să atace teorii pe care le cunoşteau insuficient. Acesta este şi cazul inteligenţei
artificiale pe care Searle atacat-o cu cerbicie agăţându-se de definiţia lui Turing
versiunea de I.A. a lui Shank, Simon şi Newel uitând că inteligenţa artificială ca şi
18
Aceşti cercetători sunt exponentul unei extreme a computaţionalismului pe care-l extind la rolul de lege
universală şi fundamentală a naturii.
19
Este vorba de Can Wolfram’s Cellular Automata Capture the Greased Recursive Piglet of Human Brain
Evolution ?, http://www.nyu.edu/pages/linguistics/CA/HCF.pdf.
11
ştiinţele cogniţiei au suferit transformări profunde reformulându-se mereu20.
Trebuie să ţinem cont şi de o interesantă remarcă a lui Daniel Dennett într-un
interviu, când spunea despre camera chinezească a lui Searle că nici măcar nu este
un argument ci un experiment mental iar între cele două tipuri de ilustrare a unei
opinii este o distanţă enormă.
Un alt fapt important este că testul Turing, nu a fost trecut până acum de
nici o maşină şi deci, încă nu ne aflăm puşi faţa unei dileme reale de a decide dacă
maşina din faţa noastră înţelege sau nu. Încă nu s-a ajuns să se creeze o cameră
chinezească, un calculator digital capabil să treacă testul Turing. Pentru a ne face o
idee despre cât de departe au ajuns cercetările în domeniul simulării inteligenţei
umane putem vizita site-ul cercetătorului american Raymond Kurzweil,
www.kurzweilai.net, care ne oferă un program inteligent cu care se poate purta o
conversaţie. Rezultatele sunt departe de aşteptările noastre.
Există şi alţi autori ce resping argumentul camerei chinezeşti din care i-aş
menţiona pe Jack Copeland, Ned Block şi Larry Hauser precum şi unii care nu văd
imposibilă existenţa acestui tip de zombie găsind argumente în apărarea
sa[Chalmers 1996].
Închei printr-o consideraţie de ordin pragmatic spunând că ar fi realmente o
greşeală dacă s-ar abandona această direcţie fără a se merge până la capăt doar de
dragul unui experiment mental.
20
O definiţie dată de Barr&Feigenbaum în Handbook of Artificial Intelligence este următoarea:
“I.A. este ştiinţa care proiectează şi studiază probleme de calculator cu comportament inteligent –
adică sisteme ce manifestă proprietăţi pe care în mod obişnuit le asociem cu existenţa inteligenţei
în comportamentul uman.”
12
Referinţe Bibliografice:
Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain
Sciences 3 (3): 417-457
Searle, J.R. 1990b. Is the brain a digital computer? Proceedings and Addresses of
the American Philosophical Association 64:21-37.
Searle, R., John, Consciusness and Language, Cambridge University Press, 2002,
Searle, R., John, The Rediscovery of the Mind, Cambridge, Mass.; London,
England: MIT Press, A Bradford Book, 1992.
13