Sunteți pe pagina 1din 5

BFN 116

IW Dragoș Stanca

TITLU: ESTE IA UN PERICOL PENTRU OMENIRE?


MARIAN VOICU: [00:01:57] Dragoș. În această dimineață am întrebat ce GPT [00:02:00] este
inteligența artificială periculoasă pentru omenire?

Inregistrare ecran ChatGPT

Mi a răspuns. Există preocupări legitime cu privire la potențialul periculos al inteligenței


artificiale, iar acestea includ lipsa controlului bias și discriminare, șomaj tehnologic, sisteme
autonome militare, confidențialitate, lipsa controlului CET și putea spune dacă o inteligență
[00:02:20] artificială devine prea avansată și scapă de sub controlul uman poate avea
consecințe grave. Este important să existe mecanisme clare de supraveghere și control asupra
sistemelor pentru a evita orice consecințe nedorite. Am întrebat și Microsoft Bing,

Inregistrare ecran Microsoft Bing

care nu este chiar concurentul cert GPT, concurentul Open AI. Atâta [00:02:40] timp cât
Microsoft e acționar și acolo și acolo, mi a răspuns Pe termen scurt. Experții avertizează că
sistemele de inteligență artificială riscă să exacerbeze prejudecățile și inegalitățile existente, să
promoveze dezinformarea, să perturbe politica și economia și ar putea ajuta hackerii. Asta
[00:03:00] este, paradoxal, un fel de ipocrizie pe care o au și cei care au dezvoltat inteligența
artificială generativă. Dar chiar și așa.
DRAGOȘ STANCA – EXPERT DIGITAL MEDIA
DRAGOȘ STANCA: [00:03:08] E bine că încă există sinceritate în răspunsurile inteligenței
artificiale. Probabil telespectatorii dumneavoastră și publicul larg nu conștientizează. [00:03:20]
Noi suntem deja victimele unei inteligențe artificiale primitive, scăpate de sub control. Vorbim
aici de algoritmii social media care, sigur, foarte, foarte primitivi sunt un precursor al ceea ce
vedem acum în zona de inteligență artificială, cu multe virgule și detalii [00:03:40] tehnice care
fac lucrurile diferite. //Suntem azi, în fața acestui fapt, o realitate de necontestat, inclusiv de
creatorii platformelor [00:04:40] social media globale, și anume că am cam scăpat de sub
control acest flagel al dezinformării, pentru că adevărul este irelevant și ineficient din punct de
vedere strict tehnic. // Cred că e important să conștientizăm că am greșit deja o dată ca
societate globală, lăsând algoritmii social media care sunt mai degrabă mașini learning, nu
inteligența artificială să o ia razna și să facă să pară știre. [00:05:40] Nu orice minciună.
MARIAN VOICU: [00:05:43] Noi suntem consumatori, nici nu prea înțelegem de fapt care este
pericolul dezvoltării necontrolate a inteligenței artificiale. Dar paradoxul. Și mă întorc la această
ipocrizie pe care presa internațională o remarcă este că cei care au dezvoltat aceste. [00:06:00]
Softuri, să spunem. Începând cu Sem. Altman și ceilalți au ajuns în fața Congresului și au spus
Dacă nu vom controla aceste produse, vom sfârși prin a fi decimați, Vom dispărea ca umanitate.
Ei sunt cei care au creat aceste [00:06:20] produse. Care este pericolul, de fapt? Ce ai înțeles din
toată această poveste?
BANII SUFOCĂ IDEALURILE
DRAGOȘ STANCA: [00:06:25] Scott Gallo a spus un lucru foarte amuzant și real în acest scandal.
În această dispută, atunci când capitalul întâlnește idealurile sau când capitalismul întâlnește
etica, întodeauna [00:06:40] câștigă bani. Da, plastic spus cod, el o spune când capitalul

1
BFN 116
IW Dragoș Stanca

întâlnește idealurile. În cele din urmă, capitalul va ajunge să sufoce în somn idealurile. Cam ăsta
e principalul motiv pentru care vedem aceste frământări. O parte din lumea [00:07:00] tech.
Are îngrijorări justificate vizavi de modul în care inteligența artificială ar putea să scape de sub
control. În ce sens? În sensul în care, în momentul în care vom. Lăsa algoritmii să se auto
genereze [00:07:20] și să auto propună modele noi, de mare limbă, cum se zice Big language
models. S-ar putea ca acești algoritmi de inteligență artificială să genereze soluții pe care noi
nici măcar nu le putem sesiza ca fiind periculoase.
IA VA TREBUI FOLOSITĂ ETIC, CA ȘI ENERGIA ATOMICĂ
Din nou, nu inteligența artificială [00:07:40] va duce la probleme reale în societate, ci oamenii
care vor folosi inteligența artificială cu rea voință. Exact la fel cum energia nucleară poate fi
folosită pentru a distruge orașe și a rade, poate chiar națiuni de pe fața pământului. Dacă ar fi
folosită fără niciun [00:08:00] filtru etic, exact la fel ar putea să o facă și inteligența artificială.
Cum am ajuns să folosim energia nucleară ca să producem energie verde, de exemplu, va trebui
să învățăm să folosim și inteligența artificială în beneficiul umanității și în beneficiul omenirii.
[00:08:17] Problema mea fundamentală. Este [00:08:20] că inteligența artificială, în această fază
a dezvoltării, bâjbâie. Da, sunt multe laboratoare, nu toate, nu toate. În lumea civilizată sau nu
toate în lumea democratică, mai degrabă democratică decât civilizată. Pentru că ai o altă
problemă că civilizația și libertatea și democrația [00:08:40] s au decuplat de multă vreme
lumea. Lumea liberă nu. Toate aceste inițiative vin din lumea liberă. Și atunci, evident, există
această îngrijorare justificată. Așa cum cu un topor poți să cioplește o minunată statuie din
lemn sau poți să îți ucizi, ucizi inamicii [00:09:00] sau vecinii. La fel și cu inteligența artificială.
Poți să găsești soluția vindecării cancerului? Da? Sau poți, tot cu inteligența artificială, să creeze
un un virus atât de puternic încât să lase întreaga Uniunea Europeană fără energie timp de o
[00:09:20] lună în timpul iernii, de exemplu. Evident că din punct de vedere tehnic, eficiența nu
are etică. Eficiența poate să însemne și exterminarea unei populații dintr un anumit teritoriu
într un într un mod foarte eficient, foarte ieftin, nu doar vindecarea [00:09:40] unei unei
maladii.
MARIAN VOICU: [00:09:41] S-a întâmplat în Rusia. În Ucraina s a restricționat accesul la CET,
GPT, pentru că inteligența artificială ar putea mobiliza armatele de boți. Și am asistat la un
război total imprevizibil privind efectele asupra. Exact la fel.
INVESTITORII CER ACCELERAREA DEZVOLTĂRII IA
DRAGOȘ STANCA: [00:09:54] Cum în trecut am avut de rezolvat problema energiei nucleare sau
problema [00:10:00] armelor biologice, care poate o comparație mai mai apropiată de ce rău ar
putea să ne facă inteligența artificială. La fel, trebuie să încercăm să rezolvăm și provocările
etice legate de dezvoltarea inteligenței artificiale.// Sigur că acest potențial pericol [00:11:20]
este, sperăm, ceva mai îndepărtat. Acum focusul este pe laboratoarele principale care dezvoltă
aceste tehnologii și care, iată, au deja dileme de natură etică. Pentru că, de fapt și de drept, ce s
a întâmplat în cazul open aia este că Microsoft, care a investit mulți bani [00:11:40] în acest
start up, care a devenit foarte valoros aproape peste noapte, a venit și a spus Totuși, trebuie să
accelerăm și dezvoltarea unor produse comerciale, iar o bună parte din echipa de la Open i a
spus Nu, nu ne grăbiți, trebuie să o luăm pas cu pas. Acesta este motivul pentru care [00:12:00]
deja a avut loc o schismă în open air și o parte din echipă a plecat și a fondat Antropic, care este
o altă entitate care e concurentă deja cu o până la fel, DeepMind, laboratorul achiziționat și
acum, investit în continuare de Google, Amazon și alți concurenți ai Microsoft, [00:12:20]

2
BFN 116
IW Dragoș Stanca

încearcă să vină la fel cu alternative, dar pentru înțelegerea provocării pentru un public mai
larg, cred că e foarte, foarte important să subliniem că suntem în această fază în care, pe de o
parte, toată lumea aleargă într un ritm extraordinar de de de [00:12:40] rapid în a ajunge la
niște noi descoperiri în acest domeniu, iar asta vine cumva în contradicție cu nevoia de
siguranță. [00:12:49] Și mai vine în contradicție cu ceva, și anume cu imposibilitatea
reglementării în timp real. Dezvoltarea în zona [00:13:00] inteligenței artificiale are un ritm
exponențial, iar rigorile democratice care impun dezbatere și discuții și așa mai departe au un
ritm mult, mult mai lent.
MARIAN VOICU: [00:13:59] Mi se pare [00:14:00] interesantă paralela cu energia atomică, cu
foloasele pentru umanitate și riscurile uriașe. Cei de la Apple, începând cu Altmann și
terminând cu Musk, care s a retras din acționariatul Open Air la un moment dat, au propus
înființarea un fel de [00:14:20] unui fel de board de supraveghere precum Agenția
Internațională pentru Energie Atomică. Ar putea fi un model. Altfel, din exterior e o lipsă totală
de transparență. Nu știm ce se întâmplă în Silicon Valley, iar capitalizarea uriașă și formidabil de
[00:14:40] rapidă a acestor companii ne arată totuși că este un model râvnit de toată lumea.
CINE VA REGLEMENTA IA?
DRAGOȘ STANCA: [00:14:46] Există și această problemă sistemică. Oamenii care cu adevărat se
pricep la dezvoltarea inteligenței artificiale sunt și cei care ar trebui să vină cu soluții cu
adevărat practice de control al derapajelor [00:15:00] eventuale din zona inteligenței artificiale.
Totuși, o veste bună este că are loc această discuție și o veste și mai bună este că o bună parte
din oamenii implicați efectiv în dezvoltarea acestor produse. Au rezerve [00:15:20] în ceea ce
privește viteza de dezvoltare și consecințele muncii lor, întorcându se. Întorcându ne la paralela
cu energia nucleară. Sunt destul de mulți nebunii în lume care probabil, dacă ar fi doar după ei,
ar putea să [00:15:40] declanșeze un atac nuclear sau să să folosească armele nucleare după
bunul plac. Motivul pentru care asta nu se întâmplă este că ei nu sunt totuși singuri în această
treabă și există și alți oameni în jurul lor care ar trebui să fie de acord cu aceasta, cu această
nebunie. Exact la fel se întâmplă și în zona inteligenței [00:16:00] artificiale. Sunt persoane care
par mai motivate de a lua orice risc în a dezvolta rapid aceste tehnologii. Pe când alții sunt mult
mai rezervați și se uită mai degrabă la consecințele care ar putea duce chiar la lucruri [00:16:20]
care par acum apocaliptice. Da, inclusiv o amenințare la adresa speciei, oricât sună de
conspiraționist. Pur teoretic este posibil. În momentul în care un algoritm de inteligență
artificială atât de bine gândit ar [00:16:40] putea să facă lucruri pe care, repet, nici măcar nu
suntem în stare să le percepem ca fiind periculoase.
MARIAN VOICU: [00:17:22] Paradoxul face ca acest sem alban chiar să fie un. Un tip care crede
că Apocalipsa va veni, El se pregătește pentru asta și a cumpărat un teren în care se va retrage.
Are tot felul de device uri. Această [00:17:40] mică sectă a celor care se pregătesc pentru
sfârșitul lumii are un nume și sunt câțiva oameni foarte bogați în Silicon Valley care se pregătesc
pentru asta. Da, sunt personaje foarte interesante. Probabil că în curând vom vedea. Hollywood
ul le va exploata mediatic.
DRAGOȘ STANCA: [00:17:57] De obicei, orice sună [00:18:00] science fiction sau apocaliptic
poate deveni și realitate într o fază ulterioară. Multe dintre lucrurile care ni se par acum
normale păreau absolut de domeniul științifico fantasticului acum 20 25 de ani. Probabil puțină
[00:18:20] lume știe că omul a ajuns pe Lună cu un computer IBM care are o capacitate de
procesare de un milion de ori mai mică decât cel mai slab smartphone din zilele noastre. Dacă ai

3
BFN 116
IW Dragoș Stanca

fi zis în anii 60 cuiva, ști [00:18:40] undeva în 40 de ani vor exista sau 50 de ani. Vor exista niște
calculatoare așa foarte mici cu care o să poți să faci o grămadă de lucruri pe care o să le țină
fiecare om în buzunar, care o să fie de un milion de ori mai puternice decât cel mai puternic
calculator pe care l a construit omul vreodată. Probabil că erau [00:19:00] multe cazuri când
spunea Domnule, du te, odihnește te, că ai băut, ai fumat ceva, ai băut ceva. Totuși, s a
întâmplat într un timp enorm de scurt. La 40 de ani, 50 de ani este foarte puțin dacă raportăm
la la scara istoriei. Prin urmare, aceste scenarii apocaliptice nu [00:19:20] sunt deloc de exclus
din discuție.

https://www.youtube.com/watch?v=oR_e9y-bka0
primele aprox 30 de sec

Sigur, e bine să existe o discuție constructivă și focusată pe partea pozitivă a lucrurilor, nu cât
de minunat ar fi să existe o bază [00:19:37] Antrenată și amplificată de inteligența [00:19:40]
artificială, care să cuprindă toate problemele medicale ale întregii omeniri. Și tot neeligibil.
Toate cunoștințele medicale la care avem sau nu acces în toate limbile pământului, în timp real
și în și și la îndemâna oricărui medic. Câte vieți ar putea fi salvate [00:20:00] dacă întodeauna ar
fi prescris cel mai potrivit tratament? Cât de repede s ar putea dezvolta anumite tratamente?
Folosind inteligența artificială, ne au luat zeci, sute de ani să ajungem la a descoperi anumite
medicamente. Cu inteligența artificială este extrem de posibil [00:20:20] să câștigăm sute de ani
de de date de dezvoltare în domeniul cercetării medicale, de exemplu. Dar exact la fel de bine
se poate întâmpla și opusul. Iar în acest context geopolitic, în care lumea, din păcate, este în
curs de reașezare și există chiar o discuție [00:20:40] vizavi de viabilitatea în continuare a
funcționării într un sistem democratic a economiilor prospere. În toate aceste frământări,
adăugând această dezvoltare spectaculoasă a inteligenței artificiale, evident că oamenii puțin
mai conservatori și care spun hai să mai [00:21:00] amânăm puțin momentul, au și ei un punct
de vedere valid.

Odiseea spațială
https://www.youtube.com/watch?v=oR_e9y-bka0
0.50-1.06

MARIAN VOICU: [00:21:06] Da, probabil că. Cu toții am văzut la un moment dat Odiseea
spațială și e o profeție care s ar putea îndeplini.
ESTE IA UN PERICOL PENTRU OMENIRE?
DRAGOȘ STANCA: [00:21:15] Dar să ne gândim și în contextul alegerilor din România, de
exemplu, sunt foarte multe îngrijorări [00:21:20] vizavi de ce se va întâmpla în Statele Unite, dar
anul viitor, din toate datele publice pe care le le vedem, va fi, se pare, unul dintre cei mai
importanți ani pentru democrațiile din întreaga lume. Sunt programate alegeri în vreo 40 de țări
[00:21:40] anul viitor, exact anul viitor. Da, cam pe vremea asta, așa, pe la mijlocul anului, mai
ales algoritmii de inteligență artificială care generează conținut video text. Vor fi suficient de
dezvoltați încât să ne păcălească. Deja se întâmplă [00:22:00] asta. Există în internetul
românesc în acest moment foarte multe clipuri false în care pare că anumiți politicieni sau
persoane publice spun anumite lucruri. E foarte, foarte complicat să facem educație media atât

4
BFN 116
IW Dragoș Stanca

de rapidă încât [00:22:20] oamenii să nu se lase păcăliți de aceste chestiuni. Nu mai spunem de
un Cambridge Analytica pe steroizi inteligenței artificiale. Cam ce ar putea să facă, cum ar putea
să arate o campanie de micro targetare pe principalele noastre frici, sub frici și sub sub frici?
Gândită [00:22:40] în stil Cambridge Analytica, dar pe steroizi dați de algoritmii de inteligență
artificială care nu au un layer neapărat etic. Cred că e de datoria noastră să le spunem
oamenilor că în acest moment trebuie să se raporteze la tot ce văd în spațiul digital, exact la fel
cum [00:23:00] se raportează la ce văd la cinematograf sau într o producție de ficțiune. Orice.
Orice lucru pe care îl vedem în spațiul digital poate fi în proporții egale, real sau fals. Eu cred că
asta este o abordare pentru o etapă [00:23:20] intermediară, destul de înțeleaptă, să ne
raportăm la tot ce vedem în format digital ca fiind ficțiune și abia apoi, după ce eventual
cercetăm lucrurile mai în profunzime, să decidem dacă se califică sau nu la a fi real. Ce vedem
acum în spațiul social media, mai ales, este exact ca acele filme care spun inspirat din fapte
[00:23:40] reale că nu este neapărat real, e inspirat din fapte reale sau făcut să pară a fi real.

https://www.youtube.com/watch?v=t27DG1Oghik
cateva secunde de final, cu muzica

Producător: Marian Voicu


Editor imagine: Cornel Tudorache
Jurnaliști: Horia Grușcă, Tatiana Țarfulea, Gabriela Avram
Directori de imagine: Andrei Coruț, Amilcar Iovănescu
Postprocesare sunet: Răzvan Ionescu
Asistent imagine: Valentin Ciolan
Grafică video: Marius Portik, Gabriela Burcea
Organizator de producție: Valentin Coporan

FACEBOOK: @BreakingFakeNews
YOUTUBE: @tvrcanaluloficial
www.tvrplus.ro

© TVR 1, MMXXIII

S-ar putea să vă placă și