Sunteți pe pagina 1din 2

Pot deveni computerele mai inteligente decât noi?

Filozoful Nick Bostrom, profesor la Universitatea Oxford, despre


riscurile dar si avantajele catre care ne indreptam folosind inteligenta
artificiala a computerelor:
"Dacă Pământul a fi fost creat în urmă cu un an, specia umană ar
fi existat de doar 10 minute. Epoca Industrială ar fi început de doar
două secunde.
Acum acțiunea se petrece în jurul învățării sistemelor artificiale, I.A..
I.A. nu are nici pe departe puterea, abilitatea transdisciplinară a omului
de a planifica și învăța. Cortexul are încă niște trucuri de algoritm pe
care încă nu știm cum să le transpunem în mecanisme. Se pune deci
întrebarea cât de de departe suntem de momentul în care putem face
asta. Răspunsul mediu a fost 2040 sau 2050, în funcție de grupul de
experți chestionați. S-ar putea întâmpla mult mai târziu sau mai
devreme, adevărul e că nimeni nu știe.
Ceea ce știm e că limita superioară a procesării informației într-un
mediu artificial e mult mai departe de limitele noastre biologice.
Neuronul transmite la vreo 200 de herți, de 200 de ori pe secundă. Dar
chiar și acum, un tranzistor operează în gigaherți. Impulsurile se
propagă prin axoni încet, cu cel mult 100 de metri pe secundă. Dar în
calculatoare semnalele pot circula cu viteza luminii. Există și limitări
date de volum, creierul uman trebuie să încapă în cutia craniană, dar
un calculator poate fi mare cât un depozit sau mai mare. Deci
potențialul de superinteligență e în stare latentă în materie, la fel ca
puterea atomului care a fost în stare latentă în toată istoria umanității,
așteptând cu răbdare până în 1945. În acest secol, oamenii de știință ar
putea să trezească puterea inteligenței artificiale. Și cred că atunci am
putea fi martorii unei explozii de inteligență.
Cu apariția superinteligenței, soarta umanității poate depinde de ce face
superinteligența. Gândiți-vă: inteligența artificială e ultima invenție pe
care va trebui s-o facă umanitatea. Căci după aceea mașinile vor fi mai
bune la inventat decât noi și vor face asta la scară digitală. Luați toate
tehnologiile nebunești pe care vi le-ați putea imagina, pe care oamenii
le-ar putea realiza în timp: oprirea îmbătrânirii, colonizarea spațiului
cosmic, nanoroboți auto-replicativi sau încărcarea minții în calculator,
tot felul de chestii SF care sunt totuși în concordanță cu legile fizicii. Pe
toate astea superinteligența le poate realiza, și încă foarte repede.
Aceasta dă I.A.-ului rațiunea instrumentală pentru a ne face lucruri cu
care nu suntem de acord. În acest caz, oamenii ar putea fi o
amenințare, care trebuie eliminată. Concluzia este că nu ar trebui să
avem prea mare încredere că putem ține duhul superinteligent închis în
sticla sa pentru totdeauna. Mai degrabă sau mai târziu, va ieși.
Cred că aici răspunsul este să găsim modalitatea de a crea o I.A.
superinteligentă care, chiar și după ce scapă, e totuși sigură, pentru că
în mod fundamental e de partea noastră, pentru că are valorile noastre.
Cu cât rezolvăm mai mult în avans problema controlului, cu atât sunt
mai mari șansele ca trecerea la era inteligenței artificiale să decurgă lin.
Mi se pare un lucru ce merită făcut și pot să îmi imaginez că, dacă iese
bine, oamenii, peste un milion de ani, privind înapoi la acest secol, ar
putea foarte bine zice că singurul lucru important făcut de noi a fost că
am făcut aceasta bine."

S-ar putea să vă placă și