Filozoful Nick Bostrom, profesor la Universitatea Oxford, despre
riscurile dar si avantajele catre care ne indreptam folosind inteligenta artificiala a computerelor: "Dacă Pământul a fi fost creat în urmă cu un an, specia umană ar fi existat de doar 10 minute. Epoca Industrială ar fi început de doar două secunde. Acum acțiunea se petrece în jurul învățării sistemelor artificiale, I.A.. I.A. nu are nici pe departe puterea, abilitatea transdisciplinară a omului de a planifica și învăța. Cortexul are încă niște trucuri de algoritm pe care încă nu știm cum să le transpunem în mecanisme. Se pune deci întrebarea cât de de departe suntem de momentul în care putem face asta. Răspunsul mediu a fost 2040 sau 2050, în funcție de grupul de experți chestionați. S-ar putea întâmpla mult mai târziu sau mai devreme, adevărul e că nimeni nu știe. Ceea ce știm e că limita superioară a procesării informației într-un mediu artificial e mult mai departe de limitele noastre biologice. Neuronul transmite la vreo 200 de herți, de 200 de ori pe secundă. Dar chiar și acum, un tranzistor operează în gigaherți. Impulsurile se propagă prin axoni încet, cu cel mult 100 de metri pe secundă. Dar în calculatoare semnalele pot circula cu viteza luminii. Există și limitări date de volum, creierul uman trebuie să încapă în cutia craniană, dar un calculator poate fi mare cât un depozit sau mai mare. Deci potențialul de superinteligență e în stare latentă în materie, la fel ca puterea atomului care a fost în stare latentă în toată istoria umanității, așteptând cu răbdare până în 1945. În acest secol, oamenii de știință ar putea să trezească puterea inteligenței artificiale. Și cred că atunci am putea fi martorii unei explozii de inteligență. Cu apariția superinteligenței, soarta umanității poate depinde de ce face superinteligența. Gândiți-vă: inteligența artificială e ultima invenție pe care va trebui s-o facă umanitatea. Căci după aceea mașinile vor fi mai bune la inventat decât noi și vor face asta la scară digitală. Luați toate tehnologiile nebunești pe care vi le-ați putea imagina, pe care oamenii le-ar putea realiza în timp: oprirea îmbătrânirii, colonizarea spațiului cosmic, nanoroboți auto-replicativi sau încărcarea minții în calculator, tot felul de chestii SF care sunt totuși în concordanță cu legile fizicii. Pe toate astea superinteligența le poate realiza, și încă foarte repede. Aceasta dă I.A.-ului rațiunea instrumentală pentru a ne face lucruri cu care nu suntem de acord. În acest caz, oamenii ar putea fi o amenințare, care trebuie eliminată. Concluzia este că nu ar trebui să avem prea mare încredere că putem ține duhul superinteligent închis în sticla sa pentru totdeauna. Mai degrabă sau mai târziu, va ieși. Cred că aici răspunsul este să găsim modalitatea de a crea o I.A. superinteligentă care, chiar și după ce scapă, e totuși sigură, pentru că în mod fundamental e de partea noastră, pentru că are valorile noastre. Cu cât rezolvăm mai mult în avans problema controlului, cu atât sunt mai mari șansele ca trecerea la era inteligenței artificiale să decurgă lin. Mi se pare un lucru ce merită făcut și pot să îmi imaginez că, dacă iese bine, oamenii, peste un milion de ani, privind înapoi la acest secol, ar putea foarte bine zice că singurul lucru important făcut de noi a fost că am făcut aceasta bine."