Sunteți pe pagina 1din 13

Eseu în vederea admiterii la

masterat, specializarea ştiinţele


cogniţiei, sesiunea de toamnă 2005

Candidat: Gheorghiu Vasile

Camera chinezească vs. teoria


computaţională a minţii

1
§1 Cadrul problemei

În încercarea sa de a-şi explica propria natură, omul a recurs adeseori la


modele construite din analogia cu tehnologia timpului său. În anii ’50 era uzuală
comparaţia “brains are telephone crossbar systems”, Sherrington1 “brains are jack-
ward looms”, “brains are telegraph systems”, Leibniz compara creierul cu o moara
iar unii autori antici au spus că creierul este asemene unei catapulte.
De-a lungul istoriei toate maşinăriile inventate de om nu făceau altceva
decât să amplifice forţa sa fizică şi numai odată cu apariţia calculatorului s-a reuşit
cu succes simularea şi amplificarea unor operaţiuni considerate specifice gândirii
umane. Calculatoarele de astăzi pot efectua calcule algebrice cu o viteză de
milioane de ori mai mare decât un operator uman. Odată ce s-a ajuns aici, soluţia
în ceea ce priveşte o explicaţie a minţii umane a părut că este incredibil de aproape
iar următorul pas a venit oarecum firesc odată cu afirmaţia: omul este un
computer, o maşină biologică, sau mai exact: mintea este pentru creier ceea ce
software-ul este pentru hardware, afirmaţie emblematică a tezei tari a
inteligenţei artificiale.
Este greu de imaginat entuziasmul cu care a fost primită această idee în
rândul specialiştilor entuziasm ce a făcut ca oameni de ştiinţă proeminenţi2 să
adere aproape orbeşte la această idee ce însemna pentru cei mai mulţi o rezolvare a
unor probleme de secole sau, ca într-o mai veche ambiţie kantiană, “capătul
legitim pus nesfârşitei erori”. În sfârşit mecanismul minţii umane şi tot ceea ce are
el mai ascuns era descifrat şi pus pe tapet graţie noului idol: calculatorul.
Optimiştii computaţionalismului3 cred cu tărie că în sfârşit ne aflăm în posesia
marelui secret al naturii umane: omul este un calculator digital iar căutările de
milenii au luat sfârşit.
Reacţiile nu au întârziat să apară iar teama iniţială faţă de maşinile
inteligente s-a transformat într-un scepticism irecuperabil. Unul din cei mai
înverşunaţi adversari ai tezei tari a inteligenţei artificiale este şi John R. Searle
care prin argumentul, devenit celebru, “camerei chinezeşti”4 pune sub semnul
întrebării o întreagă suită de cercetări ce au stat în centrul atenţiei în ultimele

1
Mare neurobiology britanic.
2
Este vorba de Marvin Minski de la M.I.T. a cărui celebră afirmaţie preluată de New York Times a făcut
carieră. El spunea că “Acum construim calculatoare atât de inteligente încât vom fi norocoşi dacă vor dori
să ne mai păstreze fie şi ca animale de casă ” (“We’re now making computers that are so smart that we’ll be
lucky if they’re willing to keep us around the house as household pets”).
3
Computaţionalismul sau teza tare a inteligenţei artificiale (strong A.I.) susţine punctul de vedere conform
căruia putem re-crea o minte cu toate aspectele sale pe cale strict computaţională [computaţional=
sintactic, prin manipulare de simboluri aşa cum se întâmplă în orice calculator digital] în timp ce teza slabă
a inteligenţei artificiale [weak A.I. sau cautious A.I.] spune că putem simula doar anumite aspecte ale
minţii, scop în care calculatorul se dovedeşte un instrument de nepreţuit pentru o înţelegere mai amplă a
funcţionării minţii umane.
4
Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457

2
decade. Mai mult de atât Searle acuză întreaga cercetare ce merge “pe mâna”
computaţionalismului ca fiind “o eroare de proporţii” iar teoria computaţională a
minţii doar o ideologie extrem de atractivă.
Problemele filosofice importante pe care le pune în discuţie Searle în acest
argument sunt raportul dintre sintaxă şi semantică, intenţionalitatea, înţelegerea,
simularea, duplicarea şi implicit problema conştiinţei.
În lucrarea de faţă vom analiza argumentul camerei chinezeşti aşa cum îl
prezintă Searle, răspunsul său la replicile primite după care vom încerca să
schiţăm propriile concluzii.

§2 Cei cinci piloni ai computaţionalismului5

Nu putem începe o prezentare a argumentului lui Searle înainte de a trasa


frontierele computaţionalismului aşa cum l-a înţeles acesta.
Dincolo de unele încercări fragmentare si analogii imperfecte ce au avut loc
de-a lungul istoriei, putem spune că istoria computaţionalismului a apărut şi a
evoluat odată cu calculatorul. După al doilea război mondial matematicianul
britanic Alan Turing şi-a pus geniul în slujba acestei idei care avea să aibă un
impact ce va fi comparat cu descoperirea microbilor, a ADN-ului sau fisiunea
nucleară. Pentru a vedea cum s-a ajuns aici vom încerca să reconstituim drumul
pe care l-a urmat această idee încă de la naşterea sa. Astfel, se pot identifica cinci
idei structurale pe care se sprijină întreg eşafodajul computaţionalismului, idei pe
care le vom detalia în această secţiune. Aceste idei sunt: (1)maşina Turing,
(2)ideea de algoritm, (3)teza Church-Turing, (4)teorema Turing şi (5)testul Turing.
Prima dintre ele, numită impropriu maşină Turing, datorată lui Alan Turing
este aceea că putem efectua calcule matematice complexe prin „descompunerea”
şi implementarea acestora într-un sistem extrem de simplu ce implica manipularea
a doar două semne: “0” şi ”1” care sunt supuse la doar patru operaţii simple iar
schimbările au loc pe o bandă infinită fiind efectuate cu ajutorul un cap de citire şi
ştergere totodată. Este o idee abstractă, pur matematică, impropriu numită “maşină
Turing”, ar fi trebuit numită “program Turing”, pentru că, în fapt, exact asta este:
un program. O maşină Turing nu poate fi implementată totuşi într-un calculator
obişnuit pentru că este un concept pur matematic6 însă, din raţiuni practice în
cadrul discursului nostru, putem considera toate calculatoarele obişnuite drept
maşini Turing pentru că execută aceleaşi operaţiuni chiar dacă într-un mod diferit
însă, cel mai important, funcţional echivalent cu al unei maşini Turing, prin
manipularea de simboluri, respectiv “0” şi ”1”. Extrema simplitate a maşinii
Turing vis-à-vis de enorma sa putere de calcul a impus-o ca un concept de o
extraordinară forţă ce a marcat o importantă schimbare în rândul doctrinelor şi
5
Există un sens mult mai larg în care este folosit acest termen de către teoreticienii realitaţii, în special de
fizicieni. În textul de faţă mă refer la computaţionalism în sensul de teorie computaţională a minţii.
6
O maşină Turing dispune de bandă infinită, în timp ce calculatorul are memorie limitată.

3
filosofiilor ce încercau să ofere o explicaţie a complexităţii cu ajutorul unor
mecanisme extrem de simple.
A doua idee fundamentală în construcţia unei teorii computaţionale a minţii
era ideea de algoritm, mai exact, ideea unei proceduri prin care o problemă este
rezolvată urmându-se un anumit număr de paşi. Importanţa conceptului de
algoritm în cadrul discursului nostru este aceea că, un program de calculator, este
de fapt un algoritm care dă maşinii(hardware) un set de reguli pentru manipularea
unuor simboluri (0 şi 1).
A treia idee constitutivă o reprezintă teza Church sau aşa cum este ea mai
cunoscută, teza Church-Turing7 care poate fi rezumată astfel: orice algoritm poate
fi rulat pe o maşină Turing, orice problemă matematică ce poate fi rezolvată
algoritmic poate fi rezolvată şi de un calculator, poate fi rezolvată computaţional
de o maşină Turing. Mai aproape de jargonul matematic putem spune că orice
funcţie calculabilă, care este orice funcţie matematică ce are o soluţie la care poţi
ajunge urmând o serie de paşi, poate fi implementată într-un computer şi rezolvată.
Cu alte cuvinte, un computer poate face orice poate face şi un algoritm sau, există
un algoritm pentru orice problemă.
A patra idee ce stă la baza concepţiei computaţionale a minţii este dată de
Teorema Turing, matematic dovedită ca teoremă, spre deosebire de Teza Church-
Turing. Aceasta spune că există o maşină Turing universală care poate simula
orice altă maşină Turing ce este proiectată să rezolve o anumită problemă.
Aşadar, până acum ştim ce este o maşină Turing, ce este un algoritm şi ce
poate face el şi mai ştim de asemenea că orice problemă poate fi soluţionată cu
ajutorul unui algoritm, că acesta poate fi implementat într-o maşină Turing şi că
există de asemenea o altă maşină Turing ce poate simula orice altă maşină Turing.
În continuare, cea de-a cincea idee extrem de influentă ce a condus la
conceperea unei teorii computaţionale a minţii este Testul Turing. După cum arată
şi numele, acest test a fost inventat de Alan Turing care, punându-şi problema
creării de programe ce aveau să simuleze inteligenţa umană, avea nevoie de un
criteriu cu ajutorul căruia să detecteze şi să poată spune când maşină(program)
poate fi decretată ca inteligentă. Acest criteriu este testul Turing. Acest test8 a fost
descris de autorul său astfel: dacă avem într-o cameră un om care pune întrebări şi
răspunde iar în altă cameră o maşină ce răspunde şi pune întrebări la rândul ei iar
în mijloc un “expert” ca mediator9 între cele două camere, fiind cel ce
manipulează întrebările şi răspunsurile celor două părţi şi dacă acesta nu poate
face nici un fel de diferenţă între întrebările şi răspunsurile celor două părţi, atunci
va spune că maşina are acelaşi nivel de inteligenţă ca şi operatorul uman.

7
Asupra acestei teze, independent elaborată, au lucrat Alonzo Church, Alan Turing şi Emil Post. Ea nu are
decât statutul de teză din cauza inexistenţei unei definiţii satisfăcătoare a noţiunii de algoritm despre care
nu putem avea decât o imagine vagă, intuitivă (intuitive image).
8
Testul Turing – pentru prima oară publicat în revista Mind, în 1950.
9
Expertul menţionat de Turing este de fapt un intermediar în comunicare şi, mai important, un arbitru.

4
Coroborarea acestor idei a dus la o suspiciune ce avea să devină ipoteza şi
chiar paradigma multor oameni de ştiinţă: ceea ce ascundem în craniile noastre,
creierul, este de fapt o maşină Turing universală. Desigur, spuneau apărătorii
ideii, nu poate fi exact de felul celei proiectate de Turing, ci diferită, cu un
program diferit, cu un hardware biologic şi nu mecanic, însă, atenţie, în principiu
identică. Atfel, credeau ei, s-au sfârşit secolele de eroare pentru că: în sfârşit avem
soluţia, am descifrat misterul minţii umane. Mai mult, avem şi un test obiectiv ce
ne fereşte de eroare şi oferă în acelaşi timp şi o direcţie cercetărilor ce trebuie să
urmeze. Totul devenise o chestiune de timp şi răbdare. Trebuia doar să aşteptăm
până când noii ingineri ai naturii umane vor crea maşini inteligente, era ceva
iminent.

§3 Argumentul camerei chinezeşti

În articolul intitulat “ Minds, Brains, and Programs” publicat în numărul 3


al revistei Behavioral and Brain Sciences din 1980, profesorul de la Berkeley îşi
expune binecunoscutul său argument – Camera Chinezească – pentru a sublinia
faptul că maşinile sunt incapabile de înţelegere [understanding] iar pretenţiile tezei
tari ale inteligenţei artificiale total nefondate.
Argumentul poate fi rezumat astfel: să ne imaginăm că eu, John Searle, sunt
încuiat într-o cameră iar camera este plină de semne chinezeşti ordonat stivuite în
jurul meu. De menţionat că nu înţeleg limba chineză iar ideogramele ei nu au
absolut nici un fel de înţeles pentru mine, mai mult de atât, nici măcar nu pot face
diferenţa între chineză şi japoneză sau coreană. De afară primesc anumite semne
chinezeşti în schimbul cărora eu trebuie să dau altele. Pentru a şti ce semne trebuie
să dau eu, am la îndemnână un mic manual, scris în engleză, limbă pe care eu o
înţeleg, în care îmi sunt date regulile conform cărora eu trebuie să returnez
anumite semne în funcţie de cele primite. Să numim acum semnele pe care le
primesc întrebări iar cele pe care le dau eu, răspunsuri. Aşadar, când primesc o
anumită secvenţă de semne, mă uit repede în manual la reguli şi văd ce semne
trebuie să dau înapoi. De exemplu, dacă primesc “‫”ﻎمﻮ ختﺠش‬, atunci eu trebuie să
dau înapoi “‫ ”ﻨﻃﻤ عشﻞﺘ‬iar dacă primesc „‫”ﻵﻘﺴ ﻨمقﺔ‬, atunci eu trebuie să dau înapoi
“‫ ”ﺐﺨؤ‬conform regulilor din manual10. Mai departe, să ne imaginăm că manipulez
semnele cu o asemenea repeziciune, încât output-urile camerei mele se succced
într-un ritm identic cu vorbirea fluentă iar cel din afara camerei, cel care întreabă,
este cu adevărat un vorbitor nativ de chineză. La ce concluzie va ajunge acesta, se
10
Pentru ilustrarea exemplului am ales caractere arabe care, în contextul argumentării noastre, sunt
echivalente ca funcţionalitate cu cele chinezeşti.

5
întreabă retoric Searle ? La concluzia că interlocutorul său chiar înţelege chineza,
ba mai mult, că poate fi chiar un vorbitor nativ de chineză. Această concluzie este
perfect conformă testului Turing. În acest moment realizăm mai multe lucruri,
concluzionează Searle:

1) că testul Turing eşuează


2) manipularea simbolică, ce este defineşte modul de operarea al
computerelor, nu este suficientă pentru a-mi conferi înţelegere.
Manipularea simbolică este o procedură, prin excelenţă sintactică dar
care, din nefericire pentru punctul de vedere computaţionalist, nu are
nici un vel de veleităţi semantice, este pur şi simplu incapabilă de a
ataşa un înţeles acelor semne pe care le manipulez.
3) Computaţionalismul nu poate explica în nici un fel intenţionalitatea,
fenomen presupus de existenţa înţelegerii.
4) Afirmaţia conform căreia maşina şi programul său pot explica
mecanismul înţelegerii umane este complet falsă

Aşa cum lasă să se înţeleagă, Roger Penrose [1994], un alt redutabil


adversar al teoriei computaţionale a minţii, argumentul camerei chinezeşti ţinteşte
mult mai mult decât demonstrarea imposibilităţii ocurenţei înţelegerii la maşini pe
baza manipulării simbolice. Inteligenţa, a cărei detectare constituie scopul testului
Turing, crede Penrose11, presupune înţelegere iar înţelegerea la rândul ei implică
existenţa unei conştiinţe. Concluzia finală ce transpare din textul lui Searle, mai
mult ca o consecinţă, este demonstrarea imposibilităţii existenţei conştiinţei la
calculatoare, precum şi sublinierea faptului că această direcţie de cercetare este
fundamental greşită. Existenţa intenţionalităţii12 pare imposibilă în camera
chinezească
De asemenea, ca un alt argument împotriva tezei computaţionale, Searle
[1992] afirmă că testul Turing acreditează o gravă eroare prin identificarea unui
proces cu simularea sa. În cazul conştiinţei, identitatea acesteia cu simularea sa.
Conştiinţa, este de părere Searle, este un proces pur biologic, este ceva ce se
intâmplă în creierele noastre la modul real, fără nimic mistic în timp ce
“conştiinta” adepţilor IA este doar un algoritm care, ca orice proces matematic,
este pur abstract. Consecinţele naturii abstracte ale computaţionalismului duc la
concluzii ce poartă uneori chiar o notă hilară. Simularea unui uragan pe calculator
nu este uraganul însuşi iar simularea unei digestii, să spunem, nu este digestia.
“Uraganul din calculator” nu va mişca nici măcar un fir de praf în timp ce un

11
Penrose, Roger, Incertitudinile raţiunii.Umbrele minţii, Editura Tehnică, Bucureşti, 1999, pp. 63.
12
Intenţionalitatea defineşte acea trăsătură a conştiinţei de a fi direcţionată “către ceva” sau “a fi despre
ceva”. Intenţionalitatea apare în toate stările conştiente, în gândurile, dorinţele, credinţele noastre, care
vizează sau sunt “despre ceva” şi mai ales în capacitatea noastră volitivă. A nu fi confundată cu qualia care
presupun intenţionalitatea însă sunt diferite ca natură, fiind stări calitative, ele fiind constituite din acea
„senzaţie de ceva” [what is it like].

6
uragan real poate produce catastrofe după cum “digestia din calculator” nu poate
în fapt să digere absolut nimic.
Există un context cauzal între creier şi conştiinţă, mai exact creierul
cauzează conştiinţa care este consecinţa unui proces natural, aceasta este părerea
categorică alui Searle.

§4 Argumente împotriva camerei chinezeşti


Fără îndoială că adepţii tezei tari a inteligenţei artificiale nu puteau rămâne
fără replică în faţa acestui argument ce punea la îndoială însăşi fundamentul si
utilitatea cercetărilor lor. Astfel au apărut o serie de argumente ce încearcă să
apere tezele inteligenţei artificiale, dintre care cele mai importante sunt:

1) Replica sistemului [The Systems Reply- Berkeley]


2) Replica robotului [The Robot Reply],
3) Replica simulării creierului [The Brain Simulator Reply]
4) Replica combinării [The Combination Reply]
5) Replica celorlalte minţi [The Other Minds Reply]
6) Replica intuiţiei [The Intuition Reply]

La toate aceste argumente Searle a oferit la rândul lui răspunsuri pe care le


vom rezuma în cele ce urmează,

4.1 Replica sistemului. [The Systems Reply- Berkeley]. Este adevărat că


individul din camera chinezească nu înţelege limba chineză, pentru că el nu este
decât o parte componentă a sistemului dar sistemul în totalitatea sa este capabil de
înţelegere. Cu alte cuvinte, operatorul uman din cameră îndeplineşte rolul pe care
îl are unitatea centrală de procesat într-un calculator, ori nu putem atribui doar
unui singur subansamblu capacitatea de a înţelege ci doar întregului sistem.
Această replică, Searle, o consideră superficială şi departe de a afecta
fondul problemei. Acestei replici i se răspunde astfel: să internalizăm toate
elementele din cameră într-un individ, mai mult, să ne imaginăm că nici măcar nu
mai există vreo cameră, operator, stive de semne sau manual cu reguli toate
acestea fiind integrate într-un individ care devine sistemul însuşi. În această
situaţie individul iarăşi nu va înţelege nimic din semnele pe care le manipulează
pentru că sistemul este acum parte a lui şi nu este nimic din sistem care să nu fie în
el.
4.2 Replica robotului [The Robot Reply]. Să presupunem că avem un
computer capabil să răspundă perfect, la fel ca în cazul camerei chinezeşti, iar acel
computer este pus într-un robot care are braţe, se poate mişca, are chiar camere
video ataşate şi toate informaţiile merg la computer care le procesează
corespunzător încât robotul se comportă asemenea unui om: manâncă, merge, bea

7
etc. Robotul întruneşte toate condiţiile din punct de vedere behaviorist pentru a nu-
l suspecta că-i lipseşte înţelegerea, în acest caz nu putem spune decât că posedă
înţelegere în toate acţiunile sale. Totuşi, spune Searle, nici această perspectivă nu
schimbă mare lucru deşi, remarcă autorul, în mod tacit şi în defavoarea lor, cei ce
au formulat această replică admit că procesul cognitiv nu este doar o chestiune de
manipulare formală a simbolurilor din moment ce se introduce un set de relaţii
cauzale cu lumea exterioară. Răspunsul la această replică este un alt experiment
mental. Să presupunem că în locul computerului din robot mă aflu eu, John Searle,
în camera chinezească, iar simbolurile pe care le primesc acum nu sunt doar
ideograme chineze ci fel de fel de simboluri primite de la senzorii externi. În
conformitate cu informaţiile primite eu asamblez răspunsurile ce vor deveni apoi
reacţii, acţiuni, vorbire etc., iar dacă sunt complet izolat în camera mea eu nu am
nici cea mai vagă idee despre faptul că aceste instrucţiuni pe care eu le restitui sunt
cuvinte, mişcări, acţiuni. Pentru mine sunt doar nişte simboluri de neînţeles.
4.3 Replica simulării creierului [The Brain Simulator Reply]. Să
presupunem că putem crea un program de calculator care nu este o reprezentare
exterioară despre lume ci simulează creierul unui vorbitor nativ de chineză, în care
este inclus fiecare neuron cu toate legăturile sinaptice pe care le are cu alţi
neuroni, aceasta în timp ce vorbeşte, înţelege o povestire în chineză şi oferă
răspunsuri înapoi. Computerul ia povestirea şi întrebările ca input-uri, în timp ce
creierul vorbitorului nativ de chineză este simulat neuron cu neuron de computer,
procesează informaţia şi apoi dă răspunsurile înapoi întocmai ca şi creierul
vorbitorului nativ de chineză.. În acest caz, afirmă susţinătorii I.A., nu putem
spune despre calculator că nu înţelege, pentru că, din moment ce este o copie
fidelă a creierului, acest lucru ar însemna să negăm că există o înţelegere a limbii
chineze chiar la vorbitorul nativ de chineză ceea ce este absurd. Searle răspunde
printr-un alt experiment mental. Cunoscând faptul că un program este multiplu
realizabil , adică poate fi implementat în orice mediu construit să suporte
computaţia, ne putem imagina o altă versiune a camerei chinezeşti în care un om
este conectat la un set de tuburi cu rol de sinapse neurale, prevăzute cu valve ce
pot fi puse în poziţia de on sau off, prin care primeşte înformaţiile, consultă
regulile din limba pe care o înţelege (engleză), şi apoi aşează valvele în poziţiile
corespunzătoare(on sau off), care sunt interpretate asemenea impulsurilor ce trec
de la un neuron la altul. Întreg sistemul este astfel conectat, imitând conexiunile
neuronale, încât în cele din urmă reuşeşte să dea răspunsurile care trebuie la input-
urile primite. Unde este înţelegerea într-un astfel de sistem, se întreabă Searle ?
Omul nu poate înţelege nimic din moment ce nu face altceva decât să închidă şi să
deschidă nişte comutatoare cât despre conducte sau valve nici nu poate fi vorba.
Problema acestui argument conchide Searle este că atâta vreme cât simulează doar
structura formala a sinapselor şi neuronilor nu simulează ceea ce este mai
important în creier şi anume proprietăţile sale cauzale şi abilitatea acestuia de a
produce stări intenţionale.

8
4.4 Replica combinaţiei [The Combination Reply]. Acest argument, este
cel mai complet şi mai abil fiind în fapt o combinaţie a primelor trei. Imaginaţi-vă
un robot ce poartă în craniul său un computer, computerul la rândul lui fiind o
simulare a unui creier cu toţi neuronii şi toate sinapsele iar comportamentul
robotului este indiscernabil de comportamentul oricărei fiinţe omeneşti. Întreg
sistemul se poartă unitar şi nu doar ca un sistem input-output. Unui astfel de
android complex nu putem să-i negăm intenţionalitatea, afirmă susţinătorii I.A iar
Searle de dă dreptate dar nu pentru mult timp ci doar până când privim androidul
mai îndeaproape şi vedem cum funcţionează. Imediat însă descoperim adevărul:
este un computer, un computer care, la fel ca toate celelalte computere,
manipulează simboluri printr-un procedeu strict sintactic, fără nici un fel de
valoare semantică. În acest moment nu mai putem să-i atribuim intenţionalitate sau
înţelegere pentru că se supune obiecţiilor camerei chinezeşti la fel ca oricare alt
computer.
4.5 Replica celorlalte minţi[The Other Minds Reply]. Cum ne putem da
seama dacă cineva înţelege chineza ? Datorită comportamentului, desigur. În acest
caz, dacă un calculator trece de toate testele behavioriste aşa cum se întâmplă cu o
persoană reală atunci nu avem nici un temei să respingem cogniţia la calculatoare.
Răspunsul lui Searle la această replică este scurt: chestiunea pusă în discuţie de
argumentul camerei chinezeşti nu este cum ştiu eu că dacă alţi oameni au stări
mentale sau nu, ci aceea de a şti ce înseamnă atribuirea acestor stări unor persoane
şi ce presupune acest lucru. În acest sens, argumentul afirmă clar că atribuirea
unor astfel de stări nu se poate face doar pe baza simplei manipulări de simboluri.
4.6 Replica intuiţiei [The Intuition Reply]. Acest argument, pe care eu l-aş
numi argumentul epistemic vizează nişte aspecte ce nu ţin de plauzibilitatea sau
structura logică a argumentului ci, mai degrabă, nişte aspecte de ordin
epistemologic. Hans Moravec, director al Institutului de Robotică de la
Universitatea Carnegie Mellon, avertizează asupra faptului că poziţia lui Searle
trădează caracteristici ale demersului tradiţional în filosofia minţi, mod de gândire
ce nu mai ţine pasul cu noile ştiinţe ale cogniţiei. Astfel, argumentul lui Searle
pare să se bazeze pe asumpţia conform căreia calculatorul(sau omul din camera
chinezească), nu pot gândi sau înţelege. Ned Block vine în sprijinul lui Moravec
spunând că “Argumentul lui Searle depinde de forţa asumpţiei potrivit căreia
anumite entităţi nu pot gândi”. De asemenea, Block, evidenţiază faptul că intuiţiile
(asumpţiile) noastre tradiţionale pot şi trebuie să fie dărâmate de noile descoperiri
şi de aceea, poate că este necesar să revizuim conceptul nostru de înţelegere
(understanding) în contextul unei realităţi în care roboţii aparţin aceleiaţi clase ca
şi oamenii13. Cu alte cuvinte, multe din descoperirile tehnologice14 ne-au forţat să

13
Stanford Encyclopedia of Philosophy, Chinese Room Argument, The Intuition Reply
http://plato.stanford.edu/entries/chineseroom/
14
De pildă mijloacele de investigaţie optică precum microscopul ce a deschis calea spre microunivers
stimulând ştiinţe precum biologia, fizica sau chimia şi telescopul ce a determinat o schimbare a viziunii
noastre despre univers şi apariţia unei ştiinţe noi, astronomia.

9
ne schimbăm modul de a privi, înţelege şi descrie lumea iar calculatorul nu este
deloc exclus să se afle în rândul acestui tip de descoperiri.

§5 Concluzii
Opinia conform căreia acum nu putem crea calculatoare inteligente dar
peste câteva zeci de ani da este suficient de răspândită iar John Searle combate şi
acest mod de a gândi cu hotărâre. Perspectiva computaţională, crede el, este
viciată încă din start de o eroare de fundament iar lipsa rezultatelor nu are nici o
legătură cu nivelul tehnologic prezent. Dezvoltarea tehnologică nu ne poate oferi
altceva decât metode prin care putem implementa cu mai mult succes programele,
precum şi o tehnologie hardware mai rapidă. Pentru a ne da seama de acest lucru,
filosoful american ne sugerează să ne întoarcem la ceea ce este de fapt un
calculator şi corelatul său: computaţia aşa cum a fost ea definită de Alan Turing.
Computaţia15 nu este altceva decât manipularea formală a simbolurilor iar
computerul16 este dispozitivul [device] ce serveşte acestui scop.
În colecţia de eseuri reunită sub titlul Consciousness and Language17,
Searle va mai aduce şi alte obiecţii computaţionalismului despre care spune că,
alături de behaviorism, că este una din cele mai uzuale erori atunci când încercăm
să creăm o ştiinţă a conştiinţei. Sursa acestei erori este testul Turing ce se face
vinovat de acreditarea uneia din cele mai aclamate gafe ştiinţifice. Mai mult,
Searle aproape că regretă atenţia prea mare pe care a acordat-o
computaţionalismului, care, afirmă filosoful american, nici măcar nu poate fi
acuzată de falsitate, ci doar de lipsă de claritate. Searle introduce o distincţie între
proprietăţi intrinseci naturii şi trăsături ce ţin de observator. Din prima categorie
15
“O problemă matematică este computabilă dacă, în principiu, poate fi rezolvată de un dispozitiv [device]
computaţional. Câteva sinonime des întâlnite sunt “rezolvabil”, “decidabil”, sau “recursiv”. Hilbert credea
că toate problemele matematice sunt rezolvabile, însă în anii ’30 Godel, Turing şi Church au arătat că nu se
întâmplă astfel. Există studii şi clasificări cuprinzătoare despre ce probleme matematice sunt sau nu sunt
computabile. Mai mult, există o clasificare detaliată a problemelor computabile în clase de complexitate
computaţională, efectuată după un criteriu stabilit de raportul între forţa de calcul necesară şi “mărimea”
unei anumite probleme. Este uimitor cu câtă claritate, eleganţă şi precizie au fost făcute aceste clasificări.”
( “A mathematical problem is computable if it can be solved in principle by a computing device. Some
common synonyms for "computable" are "solvable", "decidable", and "recursive". Hilbert believed that all
mathematical problems were solvable, but in the 1930's Gödel, Turing, and Church showed that this is not
the case. There is an extensive study and classification of which mathematical problems are computable
and which are not. In addition, there is an extensive classification of computable problems into
computational complexity classes according to how much computation — as a function of the size of the
problem instance — is needed to answer that instance. It is striking how clearly, elegantly, and precisely
these classifications have been drawn.” [Stanford Encyclopedia of Philosophy
http://plato.stanford.edu/entries/computability/] ).
16
Alan Turing vorbea despre despre computer ca despre o persoană care execută calcule, aceasta
fiind prima definiţie a termenului “computer”, cea care poate fi întâlnită în anii ’30-’40. Ceea ce numim
astăzi computer în timpul lui Turing se numea calculator automat [automatic computer] adică un dispozitiv
ce poate efectua calcule fără a exista vreo intervenţie din partea omului.
17
Searle, R., John, Consciusness and Language, Cambridge University Press, 2002, pp. 15-17.

10
fac parte fenomene ce reprezintă trăsături, caracteristici ale realităţii precum
gravitaţia, fotosinteza, electromagnetismul în timp ce a doua categorie este
constituită din “lucruri” ce nu descriu anumite caracteristici ale realităţii precum
calitatea de a fi o zi frumoasă pentru picnic sau a fi o bancnotă de cinci dolari.
Înţelegerea şi conştiinţa sunt fenomene naturale ce se înscriu într-un lanţ cauzal ce
poate fi cercetat de ştiinţă, crede Searle cu tărie ori computaţionalismul nu există
cu adevărat în natură, este o invenţie a omului ce nu desemnează altceva decât
manipularea de simboluri iar simbolul nu este o noţiune a fizicii sau chimiei.
Astfel, într-o manieră specifică filosofiei analitice de sorginte wittgensteiniană,
Searle afirmă că întrebarea “Este conştiinţa un program de calculator ?” pur şi
simplu nu are sens.
Pe de altă parte, apariţia computaţionalismului nu poate fi pusă doar pe
seama calculatoarelor digitale sau a maşinii Turing aşa cum crede Searle, care au
constituit doar nişte ingrediente necesare apariţiei acestuia ca teorie, mai precis,
condiţii de posibilitate. Apariţia computaţionalismului îşi are rădăcinile pe un
tărâm epistemic vechi de când lumea şi anume în tendinţa de a ne reprezenta
matematic lumea înconjurătoare dublată de idealul de obiectivitate impus de
pozitivism. Dacă anticii foloseau geometria pentru reprezentarea şi cunoaşterea
obiectelor reale, în contemporaneitate nu ar fi fost posibilă o reprezentare a minţii
în manieră clasică însă odată cu apariţia calculatorului digital acest lucru a părut
posibil, trasând totodată o direcţie relativ bine definită cercetărilor ce aveau ca
obiectiv una din problemele esenţiale ce rămăsese ca o pată albă pe harta
cunoaşterii omeneşti: mintea umană.
Ca să vedem că natura este sau nu computaţională în intimitatea legităţii ei
putem consulta şi alte opinii în afară de cele ale lui Searle care respinge cu tărie
aceată posibilitate. Există păreri ce susţin exact contrariul, afirmând că legitatea de
tip computaţional ar constitui chiar trăsătura determinantă a naturii. Cercetători
precum S. Wolfram, E. Fredkin, R. Rucker, G. Chaitin18 susţin natura strict
computaţională a realităţii, deci, implicit şi a minţii noastre. Pe tărâmul lingvisticii
profesorul Ray C. Dougherty de la New York University afirmă natura strict
computaţională a limbajului19, lucru ce ar face posibilă o simulare a inteligenţei
artificiale în sensul propus de adepţii tezei tari a inteligenţei artificiale.
De asemenea, în lipsa unei cunoaşteri temeinice a teoriilor computaţionale,
filosofii “de meserie”, s-au lăsat deseori seduşi de peisajul lingvistic şi s-au grăbit
să atace teorii pe care le cunoşteau insuficient. Acesta este şi cazul inteligenţei
artificiale pe care Searle atacat-o cu cerbicie agăţându-se de definiţia lui Turing
versiunea de I.A. a lui Shank, Simon şi Newel uitând că inteligenţa artificială ca şi

18
Aceşti cercetători sunt exponentul unei extreme a computaţionalismului pe care-l extind la rolul de lege
universală şi fundamentală a naturii.
19
Este vorba de Can Wolfram’s Cellular Automata Capture the Greased Recursive Piglet of Human Brain
Evolution ?, http://www.nyu.edu/pages/linguistics/CA/HCF.pdf.

11
ştiinţele cogniţiei au suferit transformări profunde reformulându-se mereu20.
Trebuie să ţinem cont şi de o interesantă remarcă a lui Daniel Dennett într-un
interviu, când spunea despre camera chinezească a lui Searle că nici măcar nu este
un argument ci un experiment mental iar între cele două tipuri de ilustrare a unei
opinii este o distanţă enormă.
Un alt fapt important este că testul Turing, nu a fost trecut până acum de
nici o maşină şi deci, încă nu ne aflăm puşi faţa unei dileme reale de a decide dacă
maşina din faţa noastră înţelege sau nu. Încă nu s-a ajuns să se creeze o cameră
chinezească, un calculator digital capabil să treacă testul Turing. Pentru a ne face o
idee despre cât de departe au ajuns cercetările în domeniul simulării inteligenţei
umane putem vizita site-ul cercetătorului american Raymond Kurzweil,
www.kurzweilai.net, care ne oferă un program inteligent cu care se poate purta o
conversaţie. Rezultatele sunt departe de aşteptările noastre.
Există şi alţi autori ce resping argumentul camerei chinezeşti din care i-aş
menţiona pe Jack Copeland, Ned Block şi Larry Hauser precum şi unii care nu văd
imposibilă existenţa acestui tip de zombie găsind argumente în apărarea
sa[Chalmers 1996].
Închei printr-o consideraţie de ordin pragmatic spunând că ar fi realmente o
greşeală dacă s-ar abandona această direcţie fără a se merge până la capăt doar de
dragul unui experiment mental.

20
O definiţie dată de Barr&Feigenbaum în Handbook of Artificial Intelligence este următoarea:
“I.A. este ştiinţa care proiectează şi studiază probleme de calculator cu comportament inteligent –
adică sisteme ce manifestă proprietăţi pe care în mod obişnuit le asociem cu existenţa inteligenţei
în comportamentul uman.”

12
Referinţe Bibliografice:

Chalmers, David 1996. The Conscious Mind, New York: Oxford.

Honderich, Ted, Conştiinţă, funcţionalism şi subiectivitate reală în Filosofia


mentalului. Intenţionalitate şi experiment, coordonator Angela Botez, Ed.
Ştiinţifică, Bucureşti, 1996.

Penrose, Roger, Incertitudinile raţiunii.Umbrele minţii, Editura Tehnică,


Bucureşti, 1999

Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain
Sciences 3 (3): 417-457

Searle, J.R. 1990b. Is the brain a digital computer? Proceedings and Addresses of
the American Philosophical Association 64:21-37.

Searle, R., John, Consciusness and Language, Cambridge University Press, 2002,

Searle, R., John, The Rediscovery of the Mind, Cambridge, Mass.; London,
England: MIT Press, A Bradford Book, 1992.

Wolfram, Stephen, A New Kind of Science, Champaign, Illinois, 2003

13

S-ar putea să vă placă și