Sunteți pe pagina 1din 12

Discourse on the moral effects of computer sciences

Abstract: Moore’s Law clearly points towards a radical evolution not only of technology
but of human kind as we know it. The 1940’s ENIAC did not make us ponder they we
ponder today at the possibilities suggested by the development of the world’s first quantic
computers. What is at stake here? Is the frenzy provoqued by the transhumanist
movement just another moment in the epic battle between the conservatory and the
progressist attitudes? Answers to such questions are, evidently, just a matter for time to
resolve. Therefore, this paper only tries to evoque the social and historical landscape
surrounding the problem of the future of technology (mainly: computer science and
physic’s evolution) and the opinions expressed by advocates of both sides.

Progresul tehnologiei. Legea lui Moore.


Revista americană Electronics publica în 19 aprilie 1965 (vol. 38, nr. 8) un articol
intitulat Înghesuirea mai multor componente pe circuitele integrate, semnat Dr. Gordon
E. Moore, la acea oră director la laboratoarele de cercetare şi dezvoltare ale companiei
Fairchild Camera and Instruments. Moore susţinea prin intermediul articolului său că în
următorii zece ani (adică până în 1975) scăderea costului obţinerii electronicelor urma să
dicteze posibilitatea de a plasa pe un singur chip de siliciu până la 65.000 de astfel de
componente. în condiţiile în care anul 1965 era martorul chipurilor cu până la 2000 de
tranzistori. „Complexitatea pentru costul minim pe component are o rată de creştere
exponenţială [la pătrat] în fiecare an. În mod sigur, pe termen scurt ne putem aştepta ca
această rată să continue, dacă nu să crească. Pe termen lung, rata creşterii este mai
nesigură, deşi nu avem nici un motiv să nu credem că ea va rămâne constantă pentru cel
puţin zece ani”. (Moore, 1965, p. 1) Ulterior, Moore a devenit co-fondator al companiei
Intel, astăzi lider mondial în piaţa microcipurilor, iar articolul menţionat, mai exact
paragraful citat mai sus, a primit numele de Legea lui Moore. Deşi la început această
lege viza doar densitatea tranzistorilor pe chipurile de siliciu, predicţia s-a extins treptat
asupra majorităţii componentelor hardware cu rol în puterea de calcul (procesoare,
RAM, hard-diskuri), dar şi asupra majorităţii aparaturii electronice destinate producţiei
de masă (de la imprimante, monitoare, medii de stocare la aparate foto şi video digitale,
telefoane mobile sau alte dispozitive multimedia). Rezumativ, se poate spune că Legea
lui Moore dictează o creştere exponenţială la fiecare 2 ani în capacităţile tehnicii de
calcul sau redare, fapt validat – cu foarte mici abateri în unele subdomenii – în ultimii 40
de ani. Desigur, criticii formulării lui Moore susţin că fenomenul creşterii exponenţiale a
încetat să existe în sine la puţină vreme după popularizarea constatărilor şi predicţiilor
lui Moore şi că, de fapt, însăşi existenţa legii în cauză dictează artificial ritmul
progresului tehnologic, fiind acceptată ca standard unanim în întreaga industrie şi
impunând o presiune feroce asupra oricărui competitor în domeniu.

1
Moore însuşi s-a ferit de la a cataloga ca universală descoperirea sa. Termenul
„exponenţial” nu înseamnă automat „pentru totdeauna”; singura problemă – susţine el –
este de a întârzia cât se poate de mult sfârşitul creşterii. Pe de altă parte, istoria tehnicii
de calcul ne învaţă că niciodată o generaţie de maşini, de orice fel ar fi acestea, nu şi-a
atins apogeul şi deci limitele, deoarece a fost întotdeauna înlocuită de o generaţie bazată
pe un concept radical nou. Această explicaţie ce aminteşte de teoriile epistemologice
bachelardiene sau kuhniene este vizibilă fără dubiu în informatică şi cibernetică. De la
tehnologia cartelelor perforate folosită în secolul XIX s-a trecut destul de rapid la
primele calculatoare analogice (electrice sau mecanice), piese care erau considerate în
anii ’30 ai secolului trecut viitorul tehnicii de calcul. Cu mult înainte de a-şi atinge
culmea, au fost scoase din uz de primele calculatoare digitale bazate pe tuburi cu
vacuum. ENIAC, UNIVAC, Mark I şi II sau MESM, toate construite pe arhitectura von
Neumann, erau dispozitive cu greutatea de câteva tone, consumând zeci sau sute de
kilowaţi/oră, costând în jurul sumei de 1 milion de dolari, dar cu o putere de calcul ce
depăşea de peste 1000 de ori orice predecesor, fiind capabile de câteva mii de operaţii pe
secundă. Generaţia calculatoarelor bazate pe tuburi cu vid a fost repede scoasă din uz (la
jumătatea deceniului 6) de calculatoarele bazate pe tranzistori care, la rândul lor vor fi
înlocuite în mai puţin de zece ani de primele modele ale Generaţiei a Treia, generaţia
calculatoarelor bazate pe circuite integrate. Standardul care se menţine şi astăzi pentru
producţia de masă este standardul impus de a patra generaţie ce computere, generaţia
microprocesoarelor.
Preţul calculatoarelor a scăzut continuu de atunci încoace, de la 50.000 $, de
exemplu, pentru Nova Data General în 1969, la 200-300 $ pentru un calculator de câteva
mii de ori mai puternic în zilele noastre. Toate studiile întreprinse de marile companii de
profil sau de cercetători independenţi arată că tendinţa de scădere a preţurilor, aflate în
raport de proporţionalitate inversă cu puterea de calcul şi de proporţionalitate directă cu
mărimea fizică tehnicii de calcul va continua cel puţin 10 ani de acum înainte.
Pe de altă parte, se naşte firesc întrebarea: ce urmează? Însuşi Gordon Moore
susţine că deja se întrevăd limitele tehnologiei actuale. Este drept că am împins acest
mod de a prelucra informaţia mult mai departe decât am fi crezut, dar acest lucru ne duce
la un final categoric: limitele fizicii. Dimensiunea tranzistorilor, marea bătălie a ultimilor
ani, se apropie vertiginos de bariera impusă de mărimea atomului. Deja majoritatea
companiilor au anunţat trecerea la module de construcţie aflate sub limita a 100 de
nanometri, ceea ce constituia în mod tradiţional „graniţa” nanotehnologiei. Mai mult
decât atât, tot Intel a demonstrat în ianuarie 2007 funcţionalitatea unui procesor construit
la nivel de 45 nanometri, deci de 11 ori mai mic decât ceea ce se construia în urmă cu
mai puţin de 10 ani şi de aproape trei ori mai mic decât ceea ce se produce astăzi pentru
calculatoarele mai ieftine. Moore, la fel ca Seth Lloyd, de exemplu, consideră că în
următorii 10 sau maxim 20 de ani vom atinge limitele fizice ale posibilităţii dezvoltării
procesoarelor. „în termenii mărimii, se poate vedea că ne apropiem de mărimea
atomului care este o barieră fundamentală […] Mai avem încă zece sau douăzeci de ani
până când vom atinge această barieră” (Moore, 2005). „Nu există nici un motiv pentru

2
care Legea lui Moore să reziste: este o lege a ingeniozităţii umane nu o lege a naturii.
La un moment dat, Legea lui Moore va ceda. Întrebarea este: când?” (Lloyd, 2000)
Dincolo de mărime mai există o piedică în dezvoltarea infinită a tehnicii de calcul; dacă
acum 30 de ani finisarea unui procesor necesita o simplă pensulă fină (cu o valoare în
jurul sumei de 10 dolari), astăzi litografierea unui microprocesor cu ajutorul
ultravioletelor ajunge să reclame necesitatea unor aparate de zeci de milioane de dolari.
Scăderea sub bariera a 40 de nanometri va necesita, ce mai probabil, investiţii de ordinul
miliardelor de dolari din partea producătorilor ceea ce înseamnă implicit nevoia unor
vânzări masive pentru a putea rentabiliza o asemenea industrie, dincolo de costul efectiv
al materialelor folosite. Ultima problemă ridicată de miniaturizarea excesivă a
microprocesoarelor este legată de consumul lor de energie în raport cu puterea pe care o
oferă (respectiv pierderile de energie în proces care, ironic, respectă şi ele Legea lui
Moore devenind tot mai mari, exponenţial) incluzând aici şi căldura degajată în timpul
procesului de calcul.
Ar părea firesc ca după microprocesoare şi nanotehnologie să vorbim despre
picotehnologie sau chiar attotehnologie (1 attometru = 10 -18 metri), dar acest lucru este
imposibil la modul absolut. Deja la nivelul unor legături de mărimi atomice electronii au
capacitatea de a „sări” peste spaţiile libere create, nemaifiind posibile întreruperile în
circuite care constituie însăşi esenţa calcului binar. Şi atunci, încă o dată, care este
urmarea? Dacă pornim de la premisa că progresul este un atribut intrinsec al timpului,
rezultă că este nevoie de o schimbare completă de paradigmă în ceea ce priveşte
noţiunea de aparat de calcul.

Următorul pas: computerul cuantic


Dacă privim fundamentele informaticii de azi, respectiv sistemul binar,
descoperim un paradox încântător: deşi pentru percepţia oricărui individ contemporan
computerele sunt o culme a puterii de cunoaştere a omului şi, mai mult, deschid un
ocean de posibilităţi, adevărul este că informatica şi computerele de azi sunt, în cel mai
bun caz, primitive în raport cu ceea ce ne închipuim despre ele. Este mai mult decât
ironic faptul că deşi, repet, sunt privite ca o culme a secolului XX, computerele fac uz
strict de logica, matematica şi fizica teoretică anterioară acestuia. Gândirea binară poate
fi simplificată sub forma propoziţiei „X este 0 sau 1”. Geometria neeuclidiană nu îşi are
locul în informatică, la fel cum nu îşi are locul aici nici logica sau fizica neclasică. Şi
totuşi, ultimii o sută de ani atestă „dictatura” notorie a acestora în mediile academice
respectabile. Din acest punct de vedere latenţa şi înapoierea informaticii este
inacceptabilă. Să fie oare acesta testul final la care este suspus orice fel de sistem
neconvenţional? Demonstraţia realităţii împotriva constructelor teoretice care neagă
evidenţa aparenţelor fizice? Dimpotrivă; în momentul în care cibernetica şi informatica
au coborât la nivelul nanometric ele au intrat în vizorul mecanicii cuantice, teorie
construită ireproşabil şi demonstrată prin experimentele ultimilor zeci de ani. Orice om
de ştiinţă din domeniul fizicii cuantice îşi va fi pus, desigur, întrebarea: de ce trebuie să
respecte tehnice de calcul principiile lumii macroscopice? La nivel cuantic, o particulă

3
poate purta infinit mai multă informaţie prin chiar proprietăţile ei fundamentale decât
poate ea să poarte dacă o constrângem la un comportament macroscopic.
Conceptul de computer cuantic îşi începe istoria undeva prin anii ’70 ai secolului
XX plecând, în oarecare măsură, din constatarea că o simulare a fenomenelor fizicii
cuantice cu ajutorul unui calculator clasic nu ar fi fezabilă ceea ce îl face pe Richard
Feynman să propună ideea unui calculator cuantic. Dacă anii ’80 reprezintă germenii
teoriei computaţiei cuantice, anii ’90 constituite începuturile practice ale computerelor
cuantice, culminând cu prezentarea primelor computere bazate pe rezonanţa magnetică
(un computer de 3 qubiţi în 1998, apoi unul de 5 qubiţi şi unul de 7 în 2000).
După RMN, variantele care pare să fi prins cel mai bine atenţia majorităţii
cercetătorilor contemporani sunt computerul cuantic bazat pe materiale
superconductoare şi, mai ales, varianta computerului cuantic bazat pe teorema
adiabatică. Compania D-Wave cu sediul în Canada pare să fie în avangarda cercetărilor
comerciale din acest domeniu după ce pe parcursul anului a efectuat demonstraţii
publice cu primele computere cuantice adiabatice funcţionale de 16 qubiţi (februarie
2007), respectiv 28 qubiţi (noiembrie 2007)
În mod simplist, computaţia cuantică se bazează pe principiile fundamentale ale
particulelor submoleculare puse în evidenţă de fizica cuantică. Conform majorităţii
teoriilor acceptate (în principal Interpretarea Copenhaga elaborată de Niels Bohr în
prima jumătate a secolului XX), o particulă se caracterizează prin faptul că nici timpul
nici spaţiul ei nu pot fi cunoscute cu exactitate (vezi şi principiul de indeterminare al lui
Heisenberg). Astfel, atunci când nu este observată, particula se prezintă ca o funcţie de
undă, respectiv ca o undă de posibilităţi. Faptul de a observa particula rupe funcţia de
undă transformând-o într-o stare constantă şi unică, irepetabilă prin faptul că sistemul
observat a fost distrus de observaţia în sine. Suprapunerea tuturor stărilor posibile prin
care trece particula atunci când nu este observată (desigur, nu ne vom întreba aici ce
înseamnă „a observa”, care este rolul conştiinţei în observaţie şi ce anume defineşte un
observator conştient; pentru o interpretare convingătoare asupra conştiinţei
observatorului vezi teoria lui Andrew Thomas -
http://www.ipod.org.uk/reality/index.asp) înseamnă că în nici un moment dat particula
nu poartă una din valorile de adevăr 1 sau 0, adică în nici un moment nu putem spune
dacă particula există sau nu există. Pe lângă această proprietate bizară a lumii cuantice
mai există un alt fenomen: întrepătrunderea stărilor cuantice (en. quantum
entanglement). Pe scurt, această sintagmă denumeşte proprietatea particulelor cuantice
de a-şi transfera atributele în ciuda depărtării fizice între ele. Unele din cele mai
fascinante experimente şi cercetări ale fizicii moderne implică această proprietate a
particulelor în direcţia teleportării (oarecum impropriu denumită astfel sau, mai curând,
înşelătoare datorită folosirii termenului de-a lungul istoriei în mai multe filme sau cărţi
SF) şi în direcţia realizării unor comunicaţii cel puţin la fel de rapide ca viteza luminii.
Din punctul de vedere al informaticii, particulele sunt, categoric, Cornul
Abundenţei. Dacă un bit de informaţie aşa cum este el folosit acum (prin tehnica
macroscopică) poate să poarte o singură valoare de adevăr (0 sau 1), un qubit –

4
echivalentul cuantic al bitului) poartă toate valorile posibile simultan. Decodarea, citirea
qubitului înseamnă oprirea lui într-o singură stare, adică oprirea funcţiei de undă
informaţiei. Vital pentru informatică este, în acest caz, faptul că un qubit nu poate fi citit
în nici un fel fără a-i altera funcţia de undă, adică fără a-l transforma din posibilitate în
certitudine. În egală măsură, întrepătrunderea stărilor cuantice permite o viteză a
computaţiilor şi a comunicaţiilor între qubiţi incomparabilă cu cea a computerelor
actuale.
Aplicaţiile unui calculator cuantic sunt imposibil de explicat sau înţeles în
comparaţie cu tehnica de calcul pe care o posedăm azi. Pentru a ne închipui cât de cât
diferenţa dintre un computer clasic şi unul cuantic ar trebui să ne închipuim diferenţa
dintre socotitul cu beţişoare şi folosirea unui calculator de buzunar modern. Dincolo de
realitatea imediată cu rezultate în criptografie (mai precis demolarea mitului RSA şi
nevoia de a crea noi metode criptare cuantică) şi comunicaţii ultra-rapide securizate,
computaţia cuantică promite deschiderea unor posibilităţi inimaginabile astăzi. De la
recunoaştere facială instantanee sau modelări tridimensionale supra-arhitecturale până la
simulări exhaustive şi detaliate ale universului, începând cu momentul Big-Bangului.
Nu în ultimul rând, computaţia cuantică lasă să se întrevadă posibilitatea
perfecţionării conceptului de inteligenţă artificială mult dincolo de limitele impuse de
tehnologia curentă. Sistemele de calcul cuantice par să fie capabile de o reproducere
surprinzătoare a mecanismelor cogniţiei umane, depăşind în egală măsură rapiditatea
creierului uman [nu trebuie uitat faptul că în prezent computerele sunt încă departe de
puterea de calcul a creierului uman: dacă un calculator de vârf al anului 2007 operează la
o frecvenţă de 3-4 Ghz, iar un supercomputer de vârf operează la maximum 440,7Ghz –
vezi sistemul IBM BlueGene/L – creierul uman este estimat ca având o viteză de
aproximativ 1680 Ghz (vezi http://library.thinkquest.org/C001501/the_saga/compare.htm)].

Problematica simulării
Care sunt implicaţiile filosofice ale dezvoltării unei puteri imense de calcul?
Dincolo de considerente de ordin practic care ţin de descifrarea unor amănunte imposibil
de cunoscut până acum (cum ar fi, de exemplu, începuturile universului,
comportamentul subparticulelor, noţiuni de cosmologie ş.a.m.d.), computerele cuantice
pot fi extrem de utile în dezvoltarea teoriei simulărilor. Ce ne lipseşte astăzi pentru a crea
o simulare convingătoare, fie că este vorba despre o maşină Turing în sensul cel mai
deplin al cuvântului, fie că este vorba despre o simulare exhaustivă a unui mediu şi a
dezvoltării sale credibile? În primul şi cel mai important rând ne lipseşte o putere de
calcul suficientă pentru a putea reda complexitatea fenomenelor şi detaliile proprii
fiecărui element care alcătuieşte un fenomen, iar apoi, în continuarea primului motiv, nu
avem o aprofundare suficientă a redării entropiei prin mijloace computaţionale. În ce
măsură este comportamentul aparent haotic al sinapselor unui creier uman sau
comportamentul accidental al evoluţiei (de)codabil prin intermediul unor mijloace şi

5
procedee ale logicii booleene? Pare mult mai firească încercarea de a lupta „cu focul
contra focului”, respectiv de a folosi proprietăţile de nedeterminare ale particulelor
pentru reproducerea unui sistem nedeterminat.
Problema simulării este, dincolo de chestiunile tehnico-teoretice ce ţin de punerea
ei în practică, una de esenţă filosofică. Tradiţia platonistă a filosofiei occidentale nu are
cum să ignore conceptul de simulare ca fiind unul fundamental pentru extragerea unei
doze cât mai mari de adevăr cu privire la natura realităţii. Este simularea o copie a Ideii
(şi în această notă ne putem întreba: este lumea înconjurătoare o copie a unei Idei, la
rândul ei, o simulare a unei Realităţi superioare?) sau devine ea o realitate de sine
stătătoare? Mai exact, întrebarea se transformă în „care este statutul realităţii?”, un
fundament peren al ontologiei. Decorului platonist al filosofiei occidentale i se adaugă
întregul tablou al ştiinţelor moderne pornit din cartezianism. Dacă Descartes afirmă
irealitatea lumii înconjurătoare („Voi crede că cerul, aerul, pămîntul, culorile, formele,
sunetele şi toate lucrurile exterioare pe care le vedem, nu sînt decît iluzii şi înşelătorii,
de care se foloseşte el pentru a abuza de credulitatea mea. Mă voi considera pe mine
însumi ca neavînd deloc mîini, nici un ochi, neavînd deloc carne, deloc sînge, ca şi cum
nu aş avea deloc simţuri, dar crezînd pe nedrept că am toate acestea” – Descartes, 1993,
pag. 25) doar ca un principiu metodologic pentru căutarea surselor cunoaşterii certe, asta
nu înseamnă că cele aproape patru secole care i-au urmat au rămas imune la posibilitatea
ca întreaga noastră experienţă a realităţii să fie una eronată. Baudrillard este una din
figurile–cheie pentru revitalizarea teoriei simulării în postmodernitate; ceea ce este mai
greu înţeles este faptul că filosoful francez, dată fiind însăşi natura sa umanistă, promova
teoria simulării mai degrabă ca pe o metaforă decât ca pe o explicaţie mot-a-mot pentru
natura realităţii. Baudrillard însuşi mărturisea într-un interviu din 2004, pentru Le nouvel
Observateur, vizând problematica filmului The Matrix că „aceşti oameni [n.m. fraţii
Wachowski sau artiştii simulării din New York-ul anilor “80] iau ca fapt brut ipoteza
virtualuluişi o duc mai departe prin fantasme vizibile. Dar principala caracteristică a
acestui univers stă tocmai în inabilitatea de a folosi categorii ale realului pentru a vorbi
despre el”. (Le Nouvel Observateur nr. 2015, 15.10.2004)
Fireşte, reticenţele lui Baudrillard în faţa interpretărilor date propriei sale teorii nu
au împiedicat dezvoltări ale argumentului simulării fie din partea cosmologilor sau
fizicienilor contemporani, fie din partea unor filosofi dintre care cel mai cunoscut este
Nick Bostrom, profesor la Universitatea Oxford. Înainte de a trece la problema
transumanismului, anunţată în titlul lucrării, se cuvine să ne oprim pentru câteva clipe
asupra formulării pe care Bostrom o dă ipotezei simulării, formulare devenită notorie în
anumite medii filosofice.
Astfel, în articolul Trăiţi într-o simulare computerizată? (Are You Living In A
Computer Simulation? Philosophical Quarterly, 2003, Vol. 53, No. 211, pp. 243-255)
Bostrom încearcă să demonstreze evidenţa faptului că lumea, aşa cum o cunoaştem noi,
nu este nimic mai mult decât o simulare desfăşurată cu ajutorul unui mediu
computaţional avansat. O versiune simplificată a argumentului său este:

6
a. Este posibil ca o civilizaţie să creeze o simulare computerizată care să
conţină indivizi dotaţi cu inteligenţă artificială
b. O asemenea civilizaţie ar rula multe – să zicem miliarde – astfel de simulări
cu diferite scopuri (cercetare, învăţământ, amuzament etc)
c. Un individ simulat nu ar şti că este înăuntrul unei simulări ci ar considera că
ceea ce vede el este „lumea adevărată”
Introducerea articolului amintit stipulează că cel puţin una din următoarele
propoziţii este adevărată: (1) specia umană se va stinge înainte de a atinge un stadiu
postuman; (2) este extrem de improbabil ca o civilizaţie postumană să ruleze un număr
semnificativ de simulări ale evoluţiei sale istorice; (3) aproape sigur trăim într-o simulare
computerizată. Concluziile trihotomiei lui Bostrom sunt clare şi sunt demonstrate de
autor pe căile riguroase ale logicii matematice: dacă nu trăim acum într-o simulare,
atunci este foarte probabil ca urmaşii noştri să nu atingă niciodată un nivel postuman.
Lucrările următoare ale lui Bostrom pun un deosebit accent pe faptul că civilizaţia
umane intră deja în faza postumană a existenţei sale, de unde rezultă faptul că devine
extrem de probabil ca în viitor să reuşim să derulăm simulări la scară largă ale
universului cunoscut. Limitele fizice ale tehnologiei de calcul actuale, subliniate pe
schema Lloyd de Nick Bostrom în articolul amintit mai sus, ne împiedică deocamdată să
ne închipuim puterea de convingere a unei asemenea realităţi, dar, aşa cum lăsam să se
înţeleagă în paginile anterioare, dezvoltarea computaţiei cuantice ar însemna deschiderea
uşilor simulacrului definitiv. La momentul actual, cea mai amplă întreprindere în vederea
simulării complete a unui mediu oarecare este reprezentată de proiectul Blue Brain.
Demarat în mai 2005, Blue Brain este o iniţiativă a companiei IBM în parteneriat cu
Institutul pentru Creier şi Minte al lui Henry Markram, la Şcoala Politehnică din
Lausanne, şi îşi propune ca scop ultim nici mai mult nici mai puţin decât o simulare
computerizată completă a creierului uman, până la nivel molecular. Folosind un
supercomputer IBM BlueGene, proiectul a reuşit să prezinte public în 14 noiembrie
2007, pentru prima oară în istorie, o simulare completă a unui creier de şoarece. (vezi
lucrarea de prezentare la http://sc07.supercomp.org/schedule/pdf/pap402.pdf)

Transumanismul şi neo-luddismul
În 1998, Nick Bostrom şi David Pearce au pus bazele Asociaţiei Mondiale
Transumaniste, o organizaţie non-guvernamentală internaţională care îşi propune atât să
promoveze folosirea noilor progrese în tehnologie, cu responsabilitate etică, pentru
îmbunătăţirea condiţiilor de viaţă şi prelungirea speranţei de viaţă, cât şi promovarea
transumanismului ca subiect de interes academic legitim şi ca subiect al politicilor
publice. Declaraţia publică a Asociaţiei (WTA – World Transhumanist Association)
susţine printre altele că: (1) Umanitatea va fi radical modificată datorită tehnologiei în
viitor. Condiţia umană va putea fi schimbată, inclusiv factori precum îmbătrânirea,
limitările intelectului şi ale inteligenţei artificiale, ale psihologiei umane, sau suferinţa;
omenirea se va putea răspândi în spaţiu dincolo de orbita planetei noastre.
(2) Cercetarea ştiinţifică trebuie să ajute la înţelegerea acestor noi dezvoltări şi a
7
consecinţelor lor pe termen lung. (3) Transhumaniştii consideră că prin acceptarea pe
scară largă a acestor noi tehnologii, omenirea va putea să le folosească în avantajul ei,
mai degrabă decât dacă s-ar încerca interzicerea lor. (4) Transhumaniştii pledează
pentru dreptul fiecăruia de a alege să-şi extindă capacităţile mentale şi fizice (inclusiv
pe plan reproductiv) şi de a avea un control mai bun asupra calităţii propriei sale vieţi.
Credem că dezvoltarea personală se poate extinde dincolo de limitările biologice. (5)
Atunci când ne planificăm viitorul, este obligatoriu să luăm în cosiderare posibilele
progrese tehnologice. Ar fi o tragedie dacă beneficiile potenţiale nu s-a materializa din
cauza unei atitudini tehnofobe şi constrângeri artificiale. Pe de altă parte, ar fi de
asemenea un dezastru dacă viaţa inteligentă ar dispărea în urma unei catastrofe sau a
unui război cauzate de folosirea unei tehnologii avansate. […] (7) Transhumanismul
este în favoarea drepturilor şi bunăstării tuturor fiinţelor conştiente (fie acestea
inteligenţe artificiale, oameni, post-oameni sau animale) şi înglobează multe principii
ale umanismului modern. Transhumanismul nu este afiliat nici unui partid şi nu
reprezintă nici o persoană sau platformă politică. [Declaraţia a fost modificată şi
readoptată prin vot al membrilor WTA pe data de 4 martie 2002 şi 1 decembrie 2002 şi
poate fi consultată la adresa http://www.transhumanism.org/index.php/WTA/languages/C125/)
Ce înseamnă, dincolo de această Declaraţie, Transumanismul? [nota: pe parcursul
lucrării am adoptat ortografia acestui cuvânt fără „H” din considerente ce ţin de
ortografia cuvântului „uman/umanist” în limba română] Transumanismul se referă la o
mişcare internaţională culturală şi intelectuală care promovează utilizarea noilor
tehnologii pentru îmbunătăţirea corpului uman în toate aspectele sale, cu scopul declarat
de a înlătura aspecte indezirabile ca: prostia, suferinţa, boala, îmbătrânirea şi moartea
involuntară. Mişcarea transumanistă are în vizor de asemenea dezbaterile privind
eventualele efecte negative ale introducerii unor astfel de noi tehnologii, dar, nota bene!,
îşi propune să elimine efectele negative în cauză şi nu să renunţe la folosirea tehnologiei
din principiu datorită unui potenţial pericol. Deşi istoria transumanismului (sau
postumanismului, aşa cum este el numit în unele contexte) începe pe undeva prin jurul
anului 1950, argumentul cel mai de preţ al susţinătorilor lui este că fiinţa umană a fost
destinată la a nu respecta limitele impuse de natură, invocând exemple mitologice sau
literare, de la Adam şi Eva şi Ghilgameş la Faust sau descoperiri relativ recente
clasicizate deja ca aviaţia sau astronautica.
În mod firesc, există şi oponenţi ai transumanismului, de la oponenţi radicali ai
oricărei forme de tehnologie (este notorie pentru această situaţie comunitatea Amish din
centrul Statelor Unite) până la oponenţi teoretici, la fel de respectabili în mediul
academic ca şi susţinătorii enhancementului uman ca Leon Kass, Francis Fukuyama,
John Zerzan, Derrick Jensen, Jacques Ellul, Chellis Glendinning sau Bill Joy. Atitudinile
împotriva transumanismului merg de la mişcările ecologice mai mult sau mai puţin
paşnice (Greenpeace şi WWF sunt cele mai notorii exemple), la texte impresionante
emoţional de genul articolului lui Bill Joy – De ce nu are nevoie viitorul de noi – până la
acte radicale însoţite de manifeste teoretice (categorie în care nu putem să nu amintim
teroarea insituită în America anilor ’80 de teribilul Unibomber, matematicianul de geniu

8
Theodore Kaczynski). Toate aceste atitudini sunt legate între ele de apartenenţa la
curentul cultural numit luddism, antipodul transumanismului, definit pe scurt ca
mişcarea de opoziţie la adresa exagerărilor de ordin tehnologic. Termenul luddit îşi află
originea în numele lui Ned Ludd, un muncitor britanic cunoscut pentru distrugerea în
1779 a două rame pentru ţesut mecanic, fapt care a inspirat o întreagă mişcare de revoltă
împotriva maşinilor (în principal cele de ţesut) în jurul anilor 1820-1830. Luddiţii şi-au
împrumutat numele peste timp oricărei mişcări sau persoane care s-au opus mecanizării
şi mai apoi informatizării sau digitalizării vieţii cotidiene, termenul luddit tinzând să
primească o conotaţie peiorativă în zilele noastre, sinonim cu tehnofobia.
Neo-luddismul, luddismul zilelor noastre, îşi articulează discursul în jurul
pericolelor potenţiale aduse de tehnologie; tot ce nu este „natural” intră în vizorul
luddiţilor fundamentalişti, de la bazele de date digitalizate şi microcipuri implantate
persoanelor, la organisme modificate genetic (OMG), celule stem şi poluarea agravantă.
Dacă transumaniştii consideră tehnologia în sine ca fiind benefică sau, în cel mai
rău caz, neutră, luddiţi de tem de „perfidia” tehnologiei şi de infiltrarea ei în viaţa
cotidiană sub masca unor avantaje temporare. De altfel, argumentul simulării ilustrat mai
sus nu face decât să întărească teoria transumaniştilor în favoarea aplicării progresului
tehnologic pentru extinderea atributelor umane dincolo de graniţele naturii. Interogat de
Sir Martin Reese în documentarul său What we still don’t know? din 2004 în partea a
treia intitulată What is real?, Nick Bostrom susţine că nu contează dacă în viitor o fiinţă
umană alege să se transfere în întregime pe un suport digital sau într-un mediu
computaţional câtă vreme senzaţiile şi amintirile vor fi identice cu cele resimţite în
lumea „reală”. Mai mult, este de datoria noastră să împingem cât mai mult societatea
actuală fie înspre realizarea unor simulări avansate, fie înspre perfecţionarea manipulării
simulării în care trăim acum pentru că, la nivelul ultimei realităţi, este aproape sigur că
tot ce ne înconjoară este o simulare infinită şi de nedecodat aşa încât nu putem să ne
temem că am încălca vreo lege intrinsecă a naturii; prelungirea duratei de viaţă înspre o
limită aflată la discreţia dorinţelor particulare ale fiecărui individ nu ar fi în acest caz
nimic mai mult decât un caz de „hacking” aplicat la mediul simulaţonal informatic în
care trăim.
Manifestul lui Theodore Kaczynski intitulat Societatea industrială şi viitorul său,
publicat în New York Times şi Washington Post în 19 septembrie 1995 ca urmare a
ameninţărilor teroriste proferate de autorul său, este un exemplu clar de viziune luddistă
asupra rolului tehnologiei în viitorul umanităţii. „Să presupunem că societatea
industrială supravieţuieşte următoarelor decenii şi funcţionează corect. Ce fel de sistem
va fi acesta? 172. Să postulăm ideea că oamenii de ştiinţă vor dezvolta maşini
inteligente care vor face totul mai bine decât oamenii. În acest caz maşinilor li se vor
permite propriile luări de decizii, caz în care nu ne putem imagina consecinţele pentru
că e imposibil de prezis cum se vor comporta maşinile. Putem doar sublinia că soarta
omenirii va fi la mila maşinilor. Se poate argumenta că oamenii nu vor ceda niciodată
deplina putere maşinilor, dar noi nici măcar nu sugerăm asta […] Sugerăm doar că
rasa umană şi-ar putea permite cu uşurinţă să alunece într-o stare de asemenea

9
dependenţă faţă de maşini încât nu ar avea altă soluţie practică decât aceea de a
accepta deciziile maşinilor. Oamenii nu vor fi capabili să oprească maşinile pentru că
vor fi atât de dependenţi de acestea încât oprirea lor ar însemna sinuciderea”.
(Kaczynski, 2005)
O atitudine similară, dar mai surprinzătoare prin prisma ocupaţiei şi istoriei
autorului ei, aparţine lui Bill Joy, co-fondator al Sun Microsystems, co-creator al
limbajului de programare Java, al microprocesoarelor SPARC şi creator al sistemului de
operare UNIX. În arhi-cunoscutul său eseu De ce nu are viitorul nevoie de noi (Bill Joy,
Why the Future Doesn’t Need Us) publicat în revista Wired, Joy îşi manifestă
perplexitatea în faţa atitudinilor unor oameni de ştiinţă contemporani – exemplul pe care
îl dă este cel al lui Ray Kurzweil – care se avântă în promovarea unor tehnologii
incredibil de periculoase, susţine autorul, cum ar fi nanotehnologia sau modificare
genetică. „Noua cutie a Pandorei a geneticii, nanotehnologiei şi roboticii este aproape
deschisă. Ideile nu pot fi puse înapoi în cutie; spre deosebire de uraniu sau plutoniu, nu
au nevoie să fie căutate în pământ şi extrase şi pot să fie copiate liber. Odată ce sunt
ieşite, ele sunt bun ieşite. Churchill remarca într-un compliment invers faimos că
americanii şi conducătorii lor „fac invariabil ceea ce e bine după ce au examinat orice
altă alternativă”. În acest caz trebuie totuşi să acţionăm prudent şi să facem doar lucrul
cel bun sau nuvom avea ocazia să îl mai facem deloc. […] Fiecare din noi are lucrurile
sale preţioase şi pe măsură ce ţinem la ele localizăm esenţa umanităţii noastre. În final,
rămân optimist că datorită capacităţii noastre imense de a ţine la ceva vom reuşi să ne
confruntăm cu aceste probleme care sunt acum în faţa noastră” (Joy, 2000)

Sistemul nostru de valori etice nu ne permite să discernem corect şi indubitabil


între cele două atitudini propuse de transumanism şi luddism; la urma-urmei,
comportamentul nostru faţă de îmbunătăţirea fiinţei umane dincolo de limitele permise
de natură este la fel de decidabil din punct de vedere epistemologic, raţional şi logic ca
orice altă problemă a eticii contemporane. Singura diferenţă dintre problema avortului
sau euthanasiei şi problema încărcăturii axiologice a tehnologiei este scara la care pot
conta consecinţele concluziei şi aplicării sau nu a enhancingului uman. Dacă primele
două exemple sunt, la urma urmei, alegeri personale condiţionate de o serie de factori
individuali printre care şi factorul religios astfel încât nu ne putem închipui într-un viitor
rezonabil că se poate găsi o soluţie globală, unanimă valabilă pentru fiecare dintre ele,
cazul tehnologiei folosite pentru spargerea legilor naturii este infinit mai complicat. Nu
ne putem imagina o lume care să-şi păstreze organizarea politică şi administrativă
actuală, dar în care unele state să decidă să digitalizeze complet mediul de viaţă, iar
altele să rămână conservatoare (sau „humanish”, după cum spun transumaniştii). Este
evident că direcţia adoptată va fi una unanimă, singurele diferenţe care pot apărea fiind
unele de gap temporal între societăţi.

Concluzii

10
Legea lui Moore stipulează o creştere exponenţială continuă în domeniul tehnicii
computaţionale. Chiar dacă Moore specifică mai târziu că „exponenţial” nu poate dura la
infinit, nu pomeneşte nimic despre ce înseamnă „creştere” sau dacă există la un moment
dat o posibilă tendinţă spre 0 a creşterii. După cum am arătat anterior, cel puţin în
domeniul tehnicii de calcul nu au existat momente când a fost posibilă să se întrevadă
tendinţa spre 0 a creşterii tehnologice; tiparele gândirii şi punerii în practică a unui
computer s-au schimbat fundamental de cel puţin patru ori până în zilele noastre, iar de
câţiva ani asistăm la începuturile unei noi revoluţii (dacă revoluţiile ar avea grade de
comparaţie, am putea spune că acest pas este „mai revoluţionar” decât cele anterioare)
prin conceptul de computer cuantic. Alegerile federale desfăşurate în Elveţia în data de
21 octombrie 2007 au fost pretextul folosirii comunicaţiei cuantice (prima aplicaţie cu
utilitate practică incontestabilă a acestui principiu – vezi
http://technology.newscientist.com/article/dn12786-quantum-cryptography-to-protect-
swiss-election.html), în iulie 2007 fizicienii Universităţii din Viena anunţau reuşita
teleportării pe o distanţă-record de 144 de kilometri, iar cercetători australieni anunţau în
aceeaşi perioadă descoperirea posibilităţii teleportării unor atomi întregi pe distanţe
similare (vezi http://www.nature.com/nphys/journal/v3/n7/full/nphys629.html). Toate
ştirile venite pe canalele revistelor profesioniste de ştiinţă ne lasă să întrevedem un viitor
promiţător şi relativ rapid pentru dezvoltarea unor computere cuantice de dimensiuni
rezonabile şi la preţuri confortabile. Singura problemă pe care trebuie să ne-o punem noi,
cei din afara fenomenului în sine, este: ce vom face cu această putere de calcul? Dincolo
de ajutorul pe care computaţia cuantică îl poate da pentru clarificarea problemelor
cosmologiei sau neurobiologiei, de exemplu, este evident că viitoarele computere
cuantice deschid posibilitatea realizării unor dispozitive care ar putea ajuta oamenii să
treacă de condiţionările istorice impuse de natură. Ce vom alege? Să ne păstrăm
umanitatea în ciuda apropierii de Izvorul Tinereţii şi Fântâna Înţelepciunii? Sau
dimpotrivă, vom alege să provocăm destinul, să facem un hybris istoric care ne-ar putea
împinge insesizabil dincolo de marginea prăpastiei? Partea cea mai tristă din punct de
vedere al naturii umane ar fi să nu avem, de fapt, posibilitatea de a alege. Este posibil ca
răspântia care ne permitea să optăm pentru una din căi să fie deja în spatele nostru.
„Viitorul a ajuns deja, este deja aici…Vreau să spun că nu mai avem de aşteptat
nici realizarea unei utopii revoluţionare nici, pe de altă parte , un eveniment atomic
exploziv. Forţa detonatoare a intrat deja în obiecte. Nu mai este nimic de aşteptat …
Ceea ce este cel mai rău este că evenimentul final visat, pe care se baza orice utopie,
efortul metafizic al istoriei etc, punctul final se află deja în urma noastră” (Baudrillard,
1994)

RESURSE
Gordon E. Moore, Cramming more components onto integrated circuits, în Electronics
Magazine,vol 38, nr. 8, 19 aprilie 1965

11
Seth Lloyd, Ultimate physical limits to computation în Nature, vol 406, 31 august 2000,

Rene Descartes, Meditaţii metafizice, trad. Ion Papuc, Ed. Crater, Bucureşti, 1993.

Nick Bostrom, Are You Living In A Computer Simulation? Philosophical Quarterly,


2003, Vol. 53, No. 211, pp. 243-255

Theodore Kaczynski, The Unabomber Manifesto: Industrial Society and Its Future,
Filiquarian Publishing, 2005

Bill Joy, Why The Future Doesn’t Need Us, Wired Magazine, Issue 8.04, aprilie 2000,
Jean Baudrillard, The Illusion of The End, Stanford University Press, 1994

12

S-ar putea să vă placă și