Sunteți pe pagina 1din 5

CZU 004.

8
https://doi.org/10.52507/2345-1106.2023-1.06

CARTEA ALBĂ – PREVEDERI DESPRE INTELIGENȚA ARTIFICIALĂ

MATEESCU Florina,
doctorand,
Universitatea de Studii Europene din Moldova,
România
e-mail: florina_dede@yahoo.com
https://orcid.org/0009-0006-9951-386X

REZUMAT
Prezentul studiu reliefează o tematică foarte actuală, care suscită interesul tuturor. Ne-am referit în special la
prevederile de la nivelul Uniunii Europene şi am supus atenției regulile cele mai importante în materie. Baza acestei
cercetări sunt normele din cadrul Uniunii Europene. Metodele folosite sunt, în principal, analiza documentelor existente
la nivelul Uniunii Europene ṣi metoda studiului de caz, fiind analizate mai multe situații ce ar putea lua naștere în viitorul
apropiat, pe baza reglementărilor. Concluziile articolului atrag atenția că normele privitoare la situația prezentată trebuie
dezvoltate în concordanță cu realitatea, ce este în continuă dezvoltare şi mișcare. Prezenta lucrare poate fi o lectură
interesantă pentru specialiștii în drept, de la profesori universitari, avocați, magistrați ṣi alte categorii de juriști ṣi până la
studenți, întrucât prezintă o problematică actuală în societatea contemporană. Articolul nu este o lucrare exhaustivă, cât
o prezentare a regulilor ce privesc inteligența artificială şi direcția în care aceasta se îndreaptă.
Cuvinte-cheie: prevederi, roboți, tehnologie, drepturi, siguranță.

CARTEA ALBĂ – PREVEDERI DESPRE INTELIGENȚA ARTIFICIALĂ

MATEESCU Florina,
PhD student,
University of European Studies of Moldova,
Romania
E-mail: florina_dede@yahoo.com
https://orcid.org/0009-0006-9951-386X

SUMMARY
The present study highlights a very current topic, which arouses everyone's interest. We referred in particular to the
provisions at the level of the European Union and brought to attention the most important rules in the matter. The basis
of this research are the rules of the European Union. The methods used are, mainly, the analysis of existing documents at
the level of the European Union and the case study method, being analyzed several situations that could arise in the near
future, based on the regulations. The article's conclusions draw attention to the fact that the privileged norms in the
presented situation must be developed in accordance with reality, which is still development and movement. The present
paper can be an interesting reading for law specialists, from university professors, lawyers, magistrates and other
categories of jurists to students, because it presents a current issue in contemporary society. The article is not an exhaustive
work, but rather a presentation of the rules regarding artificial intelligence and the direction in which it is heading.
Key words: provisions, robots, technology, rights, safety.

Ce este inteligența artificială (IA) şi cum a luat ea Newton. Noutatea programului a constat în faptul că
naștere? acesta a reușit să găsească o demonstrație mai scurtă
Întrebarea stârnește un interes tot mai mare în decât cea din lucrarea “Principia Mathematica” a lui
contextul unei societăți în continuă dezvoltare, care pare Newton.
să tindă la înglobarea majorității activităților într-o lume Acestui program, i-a urmat apoi un altul, GPS –
tehnică virtuală, în care inteligența tehnologică asigură General Problem Solver – care simula raționamentele
mai multă informație, mai multă rapiditate, performanță. umane în rezolvarea unei probleme. Acesta, mai
Comisia Europeană, la fel ca şi doctrina, au găsit performant, rezolva subproblemele apărute într-o ordine
răspunsul. În accepțiunea Comisiei, “ IA este un similară cu cea folosită de oameni. Practic, GPS a fost
ansamblu de tehnologii care combină date, algoritmi și primul program care a transmis inteligenței artificiale o
putere de calcul” . Iată că atât specialiștii din domeniul abordare umană în gândire.
dreptului, cât ṣi din domeniul roboticii au acum explicația La nivel internațional, preocuparea cercetătorilor din
[1]. domeniu s-a intensificat între anii 1970 ṣi 1990,
IA a luat naștere întâi prin programul “Logic formându-se astfel bazele teoretice ṣi practice ale
Theorist”, care efectua raționamente. Cu ajutorul său, s- majorității subdomeniilor inteligenței artificiale.
au demonstrat mai multe teoreme aparținând lui Isaac
32
În această perioadă au fost proiectate ṣi implementate - Rezoluția Parlamentului European din 16
limbaje de programare, dintre care unele din cele mai februarie 2017, conținând recomandări adresate Comisiei
importante sunt: referitoare la normele de drept civil privind robotica [7] ;
- LISP – autor, matematicianul american Winston. - Raportul Comisiei către Parlamentul European,
Acest program se baza, în principal, pe procesarea Consiliu ṣi Comitetul Economic ṣi Social European
listelor. privind implicațiile în materie de siguranță și răspundere
- PROLOG – autor, francezul Colleman. Acesta a ale inteligenței artificiale, ale internetului obiectelor și ale
dorit o apropiere de programarea logică ṣi o “segregare” roboticii, Bruxelles, 19.2.2020 [8] ;
de invenția americană, demonstrând că ṣi în Europa - Cartea Albă: Inteligența artificială - O abordare
există preocupări în acest domeniu. europeană axată pe excelență și încredere, Bruxelles,
- CLIPS – elaborat de NASA pentru proiectarea 19.2.2020.
sistemelor expert. Cartea Albă - prevederi
Totodată, “Inteligența artificială” a apărut în Cartea Albă conține un capitol dedicat cadrului de
majoritatea mediilor universitare din domeniul reglementare a IA.
informaticii, ca disciplină de studiu. De asemenea, Se precizează că şi inteligența artificială, ca orice altă
robotica începe să fie introdusă şi în mediul industrial [2]. nouă tehnologie, prezintă atât oportunități, cât și riscuri.
După 1990, “lumea virtuală” s-a extins tot mai mult, În rândul populației există unele reticențe: cetățenii se
fiind un rezultat al permanentelor preocupări în acest tem că nu vor avea nicio putere să își apere drepturile și
domeniu. Au apărut așadar produse “inteligente”, lucrări siguranța, iar întreprinderile sunt preocupate de
scrise care tratau acest subiect al inteligenței artificiale, insecuritatea juridică. Însă, pe de altă parte, IA poate
s-au înființat firme de profil, asociații profesionale. contribui la protejarea securității cetățenilor și îi poate
Desigur, această “explozie” s-a datorat ṣi dezvoltării ajuta să se bucure de drepturile lor fundamentale. Totuși
tehnologiei informației, a produselor “soft” ṣi “hard”, dar cetățenii sunt îngrijorați de faptul că IA poate avea efecte
ṣi apariției internetului. nedorite sau chiar poate fi utilizată în scopuri rele. Este
Pe plan național, au existat preocupări asemenea celor necesar ca aceste preocupări să fie luate în considerare,
mondiale, atât în mediul universitar, cât ṣi în institutele deoarece lipsa de încredere este un factor principal care
de cercetare din domeniul informatic. Universitatea împiedică adoptarea pe scară mai largă a IA, pe lângă
Politehnică din București a dat valoare “problematicii lipsa investițiilor și a competențelor.
virtuale” printr-o serie de profesori emeriți: Din aceste considerente, Comisia a prezentat pe 25
academicianul Mihai Drăgănescu, care a publicat mai aprilie 2018, o „Strategie privind IA”, care abordează
multe lucrări, profesorul Cristian Giumale, care ṣi-a aspectele socio-economice în paralel cu majorarea
pregătit ṣi susținut doctoratul în Anglia, în domeniul investițiilor în cercetare, inovare și capacitățile IA în
inteligenței artificiale, iar la întoarcerea în țară a susținut întreaga Uniune Europeană. De asemenea, Comisia a
cursuri la Universitatea Politehnică ṣi a publicat convenit cu statele membre un „Plan coordonat de
materiale specifice domeniului. Academicianul Florin aliniere a strategiilor”. Comisia a instituit, de asemenea,
Gheorghe Filip, președintele secției de “Inteligență un grup de experți la nivel înalt, care în aprilie 2019 a
artificială” din Academia Română ṣi cercetătorul Ioan publicat Orientări pentru o IA fiabilă.
Georgescu care au publicat un volum despre inteligența Tot Comisia a publicat o comunicare în care
artificială, au adus un prinos științei prin munca de apreciază cele șapte cerințe esențiale prevăzute în
cercetare depusă. De asemenea, în rândul erudiților din orientările grupului de experți la nivel înalt. Le vom
domeniu este ṣi academicianul Mircea Maliṭa, profesor la prezenta pe rând:
Universitatea din București ṣi care a fost numit titularul - implicare și supraveghere umană;
cursurilor “Modele matematice în științe sociale” ṣi - robustețe tehnică și siguranță;
“Logică ṣi inteligență artificială” [3]. - respectarea vieții private și guvernanța datelor;
Pornind de la aceste aspecte, care denotă importanța - transparență;
temei de cercetare, vom proceda la analizarea - diversitate, nediscriminare și echitate;
prevederilor legislative din domeniu, şi anume a Cărții - bunăstare societală și de mediu;
Albe. - responsabilitate.
1. Cadru legislativ al Uniunii Europene Pe lângă acest set de orientări al grupului de experți
Nu ne propunem o enumerare ori o analiză exhaustivă la nivel înalt și în conformitate cu orientările politice ale
a normelor existente la nivel european, însă dorim o o președintei, existența unui cadru de reglementare
fixare a cadrului legal, pentru a putea observa în ce european clar ar consolida încrederea consumatorilor și a
măsura o entitate cu inteligență artificială poate exista şi, întreprinderilor în IA și, prin urmare, ar accelera
eventual, răspunde în fața legii civile. adoptarea tehnologiei. Un asemenea cadru de
Vom enumera, așadar, actele normative existente în reglementare ar trebui să fie corelat cu alte acțiuni de
prezent la nivelul Uniunii Europene: promovare a capacității de inovare și a competitivității
- Directiva 2001/95/CE privind siguranța generală europene în acest domeniu. Mai mult, legea trebuie să
a produselor [4] ; asigure obținerea unor rezultate optime din punct de
- Directiva 2006/42/CE privind echipamentele vedere social, economic și al mediului. Totodată, este
tehnice [5] ; necesară și respectarea legislației, a principiilor și a
- Directiva 2014/53/UE privind echipamentele valorilor unionale. Importanța acestui aspect este mare
radio [6] ; mai ales pentru domeniile în care drepturile cetățenilor
pot fi afectate direct - de exemplu, în cazul aplicațiilor IA
33
pentru asigurarea respectării legii și pentru sistemul După cum observăm, inteligența artificială poate
judiciar. aduce beneficii importante. Aceste beneficii pot fi:
Dezvoltatorii și operatorii IA sunt deja supuși sporirea siguranței produselor și a proceselor de
legislației europene privind drepturile fundamentale - fabricație.
cum ar fi protecția datelor, viața privată, nediscriminarea, În ceea ce privește prejudiciile, ele pot fi atât
protecția consumatorilor, precum și normelor referitoare materiale (siguranța și sănătatea persoanelor, inclusiv
la siguranța produselor și la răspunderea pentru produse. pierderea de vieți omenești, daunele materiale), cât și
Așteptările consumatorilor sunt: același nivel de morale (nerespectarea vieții private, limitarea dreptului la
siguranță și de respectare a drepturilor lor, indiferent dacă libertatea de exprimare, nerespectarea demnității umane,
un produs sau un sistem se bazează sau nu pe inteligența discriminarea şi altele asemenea).
artificială. Privitor la unele caracteristici specifice ale IA, Din nou se face referire în cadrul Cărții la cadrul de
acestea pot îngreuna aplicarea și asigurarea respectării reglementare, care ar trebui să se concentreze asupra
legislației. Din acest motiv, este necesară examinarea modalităților prin care se pot reduce la minimum riscurile
legislației actuale şi a măsurii riscurilor IA, dar şi a şi prejudiciile, în special cele mai semnificative.
respectării sale efective. Trebuie, de asemenea, apreciat Principalele riscuri pot apărea odată cu aplicarea
dacă sunt necesare adaptări ale legislației sau dacă sunt normelor menite să protejeze drepturile fundamentale,
necesare noi dispoziții legale. cum ar fi protecția datelor cu caracter personal și a vieții
Judecând după evoluția rapidă a tehnologiei, cadrul private, ori nediscriminarea, dar mai pot apărea şi în ceea
de reglementare trebuie să fie adaptabil la schimbare, ce privește siguranța și răspunderea.
adică să lase loc evoluțiilor ulterioare. În acest sens, Vom detalia aspectele legate de riscurile pentru
statele membre atrag atenția că deocamdată nu există un drepturile fundamentale, făcând referire şi la protecția
cadru european comun. Unele țâri doresc măsuri care să datelor cu caracter personal și a vieții private, precum şi
nu permită abuzuri ale IA asupra oamenilor. De exemplu, a discriminării, tocmai pentru a reliefa importanța
„Comisia pentru etică în materie de date” din Germania acestora.
a solicitat adoptarea unui sistem de reglementare care să Aflăm astfel că utilizarea IA poate afecta valorile care
meargă de la absența oricărei reglementări pentru stau al baza Uniunii Europene, adică poate duce la
sistemele de IA cele mai inofensive, până la o interdicție încălcări ale drepturilor fundamentale cetățenești, şi
totală pentru sistemele cele mai periculoase. Danemarca anume: dreptul la libertatea de exprimare, libertatea de
a lansat reguli de etică în materie de date. Malta a întrunire, demnitatea umană, nediscriminarea pe criterii
introdus un sistem voluntar de certificare pentru IA [12]. de sex, rasă sau origine etnică, religie sau convingeri,
Dacă Uniunea Europeană nu reușește să ofere o handicap, vârstă sau orientare sexuală, protecția datelor
abordare la nivelul său, există un risc ridicat de cu caracter personal și a vieții private sau dreptul la o cale
fragmentare a pieței interne, ceea ce ar submina de atac eficientă și la un proces echitabil, precum și
obiectivele de asigurare a încrederii, de securitate juridică protecția consumatorilor.
și de adoptare pe piață [12]. De aceea, este de dorit un Riscurile în discuție ar putea fi cauzate de deficiențe
cadru legislativ european solid pentru o IA de încredere. în conceperea generală a sistemelor de IA - inclusiv în
Menirea acestuia va fi protejarea tuturor cetățenilor ceea ce privește supravegherea umană. De asemenea,
europeni și va contribui la crearea unei piețe interne fără acestea pot afecta şi utilizarea datelor, care produc
piedici pentru dezvoltarea tehnologiei inteligenței eventuale discriminări. Exemplul este cel al unui sistem
artificiale. antrenat numai sau în principal cu date provenite de la
Având în vedere aspectele prezentate, pe care Cartea bărbați, ceea ce duce la rezultate sub nivelul optim în
Albă le conține, opinăm că toată problematica dezvoltării privința femeilor.
unui cadru legislativ este foarte „delicată”, „fragilă” [9]. Inteligența artificială este capabilă a executa
Nu mai este o noutate faptul că inteligența artificială numeroase funcții care în trecut aparțineau activității
reprezintă o tehnologie care poate deservi multe domenii, omenești. Se preconizează așadar că cetățenii și entitățile
ajutând omenirea în mod considerabil. Problema care se juridice vor face din ce în ce mai des obiectul acțiunilor
pune este, cât de mult sau în ce măsură putem utiliza IA întreprinse și deciziilor luate de sistemele de IA sau cu
fără să apară lezarea vreunui drept omenesc. De unde şi ajutorul acestora. Deja cu ajutorul inteligenței artificiale
până unde putem apela la ajutorul tehnologic şi când pot fi urmărite și analizate obiceiurile zilnice ale
începem să îi cedăm din drepturile noastre? oamenilor. De aceea, există un risc ridicat al încălcării
La această întrebare, deja unele state europene au normelor privind protecția datelor și a altor norme ale
încercat să răspundă, prin diverse măsuri. Preponderent, UE, de către autoritățile de stat sau de către alte entități
măsurile sunt unele restrictive şi ușor drastice. Ele sunt pentru supravegherea în masă. În aceeași categorie intră
totuși necesare dacă luăm în considerare că domeniul IA şi angajatorii care, pentru a observa modul în care se
nu este încă unul foarte bine pus la punct, cel puțin din comportă angajații lor, le pot încălca drepturile.
punct de vedere legislativ. Practic, prin intermediul IA, sunt analizate volume
Pe de altă parte, este bine ca legea să permită mari de date și identificate legăturile dintre acestea. Se
schimbările permanente care au loc în domeniul acesta şi reconstituie astfel date despre anumite persoane, creând
să ţină pasul cu ele. Este deci nevoie de atenție şi de multă noi riscuri în materie de protecție a datelor cu caracter
analiză pentru a se putea construi un cadru legislativ personal, chiar și atunci când sunt analizate seturi de date
complex, care să poată fi aplicat fără probleme şi să care, în sine, nu includ informații cu caracter personal.
concordeze cu realitatea înconjurătoare. Prin aceeași tehnologie, intermediarii online stabilesc
Definirea problemei în termenii Cărții Albe prioritatea informațiilor destinate utilizatorilor lor și
34
furnizează un anumit conținut pentru fiecare. Datele Metodele folosite sunt, în principal, analiza
prelucrate, modul în care sunt concepute aplicațiile și documentelor existente la nivelul Uniunii Europene, dar
posibilitățile de intervenție umană pot afecta drepturile la este folosită ṣi metoda studiului de caz, fiind analizate
libertatea de exprimare, la protecția datelor cu caracter mai multe situații ce ar putea lua naștere în viitorul
personal și la protecția vieții private, precum și libertățile apropiat.
politice [13]. Prezenta lucrare poate fi o lectură interesantă, întrucât
Un efect foarte benefic al IA este anticiparea recidivei prezintă o problematică actuală ṣi care nu este îndeajuns
infracționale. Anumiți algoritmi pot prezenta date bazate de dezvoltată legislativ, în societatea contemporană.
pe gen și rasă, demonstrând o probabilitate diferită de Rezultatele obținute
recidivă pentru femei față de bărbați sau pentru cetățenii Prin intermediul studiului propus, am dorit:
naționali față de cetățenii străini. Același raționament - Să analizăm răspunderea juridică, în ceea ce privește
este folosit şi pentru analiza facială: sunt generate inteligența artificială, prin prisma prevederilor Cărții
stereotipuri bazate pe gen și rasă, demonstrând erori Albe.
scăzute în ceea ce privește determinarea sexului în cazul - Să descoperim în ce direcție se îndreaptă Uniunea
bărbaților cu piele de culoare mai deschisă, dar erori mari Europeană din punct de vedere legislativ, în privința IA.
în ceea ce privește determinarea sexului în cazul femeilor - Identificarea legislației existente la nivelul Uniunii
cu piele de culoare mai închisă [13]. Europene.
Discriminarea este un risc inerent oricărei activități - Analiza normelor Uniunii Europene, în vederea
societale sau economice. Procesul decizional uman este reliefării temei cercetate.
adesea supus greșelii. Cu toate acestea, discriminarea - Stabilirea unor principii care trebuie să ghideze
poate căpăta proporții atunci când este prezentă în IA, dezvoltarea tehnologiilor privitoare la inteligența
afectând multe persoane, în lipsa mecanismelor de artificială.
control social, care guvernează comportamentul uman. - Formularea unor puncte de vedere personale în ceea
Desigur că acest lucru se poate întâmpla și atunci când ce privește analiza subiectului propus.
sistemul de IA „învață” în timpul funcționării şi se - Enumerarea trăsăturilor tehnice ale roboților cu
„adaptează” pe parcurs. În astfel de cazuri, în care inteligență artificială şi analizarea modului în care
rezultatul nu ar fi putut fi împiedicat sau anticipat în faza impactează economia, dar şi alte domenii.
de proiectare, riscurile nu vor fi generate de o eroare în - Evaluarea performanțelor IA, pentru a observa în ce
proiectarea inițială a sistemului, ci mai curând de măsură roboții pot răspunde civil.
impactul practic al corelațiilor sau al tiparelor pe care - Analizarea riscurilor pe care le presupune
sistemul le identifică într-un set amplu de date [14]. independența roboților față de voința şi acțiunea umană.
Multe dintre tehnologiile bazate pe IA au - Documentarea amănunțită, apelând la o analiză a
caracteristici precum: opacitate („efectul de cutie Cărții Albe.
neagră”), complexitate, imprevizibilitate și Concluzii
comportament parțial autonom; acestea pot îngreuna Observăm că pentru a putea ajuta economia, precum
verificarea conformității cu legislația existentă a UE, ce şi alte domenii, inteligență artificială necesită crearea
este menită să protejeze drepturile fundamentale și să unui set de reguli la nivel european. Specialiștii şi juriștii
împiedice asigurarea respectării efective a acesteia. trebuie să găsească „formula” potrivită pentru ca IA să
Autoritățile care aplică legea și persoanele afectate ar fie o componentă a societății contemporane, dar care să
putea să nu dispună de mijloacele necesare pentru a nu lezeze cetățenii.
verifica modul în care a fost luată o anumită decizie cu De asemenea, drepturile fundamentale ale oamenilor
implicarea IA. Mai mult decât atât, persoanele fizice și trebuie să rămână o prioritate a UE, în raport cu noua
cele juridice se pot confrunta cu dificultăți în ceea ce tehnologie.
privește accesul efectiv la justiție, atunci când astfel de E de dorit ca inteligența artificială să aibă efecte
decizii îi pot afecta negativ [10]. benefice, să fie utilizată şi concepută în favoarea
Iată că se pune problema: ce prevalează? care sunt oamenilor, pentru a aduce o îmbunătățire a condițiilor de
avantajele şi dezavantajele utilizării inteligenței viață.
artificiale? este omenirea pregătită să facă față unei De aceea, este necesar ca orice neregulă sau orice risc
asemenea provocări? de abuz să fie prevenită, respectiv prevenit, prin norme.
Desigur că da, ar fi răspunsul, în ceea ce ne privește. Adică, legislația trebuie să încurajeze dezvoltarea IA, dar
Atâta timp cât există un echilibru între tehnic şi uman, trebuie să şi pondereze eventualele prejudicii, care s-ar
iar IA este dezvoltat în așa măsură încât să nu nască putea naște din cauza utilizării inteligenței artificiale.
situații prejudiciabile persoanelor, atunci totul este în Exemplul care demonstrează susținerile noastre este
armonie. Mai exact, dacă drepturile fundamentale sunt cel al autovehiculelor autonome, care în ultimii ani au
lăsate să existe şi nu îşi pierd locul în ierarhia valorilor produs mai multe accidente soldate cu râniți şi morți. Iată
europene, atunci IA poate ajuta şi îmbunătăți considerabil că, în astfel de situații, se aplică legislația deja existentă,
viața societății [11] . însă ideal ar fi ca aceste situații să facă obiectul unor
Metodele utilizate norme speciale, unor legi anume adoptate pentru o atare
Prin studiul propus, dorim identificarea legislației realitate.
europene, care să corespundă situațiilor în care este Desigur că până când nu vor exista informații tehnice
produs un prejudiciu de către o entitate cu inteligență foarte exacte despre performanțele pe care le poate atinge
artificială, dar şi perspectivele de viitor ale IA. o entitate cu inteligență artificială, şi cadrul legal este pus
sub semnul întrebării.
35
Totuși, în viitorul apropiat, este aproape o artificiale are nevoie de mai mult studiu, de mai multă
certitudine faptul că vor apărea legi care să normeze analiză ṣi de echipe de cercetători specializați în toate
domeniul IA. domeniile pe care robotica le va afecta, într-un fel sau
Corolarul tuturor celor prezentate este, așadar, ideea altul.
că deși se află la început de drum, știința inteligenței

Referințe bibliografice:
1. Podaru V., Inteligență artificială, București, 2011, p. 5,6.
2. Negruţ D. S., Proiectarea și simularea unei linii automate de ambalare a zahărului, Cluj-Napoca, 2019, p. 23.
3. Mateescu F., Răspunderea Civilă în Cazul Prejudiciilor Comise de Agenții cu Inteligență Artificială, în volumul
Conferintei Promovarea valorilor social-economice în contextul integrării europene, Chișinău, 2020, p. 65-69.
4. Jurnalul Oficial al Uniunii Europene - Directiva 2001/95/CE a Parlamentului European şi a Consiliului, din 3
decembrie 2001, privind siguranța generală a produselor [citat 18.02.2023]. Disponibil: https://eur-
lex.europa.eu/legalcontent/RO/ALL/?uri=celex:32001L0095.
5. Directiva 2006/42/CE a Parlamentului European și a Consiliului din 17 mai 2006 privind echipamentele tehnice
[citat 08.03.2023]. Disponibil: https://eur-lex.europa.eu/legal-content/RO/TXT/?uri=CELEX:32006L0042.
6. Directiva 2014/53/UE a Parlamentului European și a Consiliului din 16 aprilie 2014 privind armonizarea legislației
statelor membre referitoare la punerea la dispoziție pe piață a echipamentelor radio [citat 02.03.2023]. Disponibil:
https://eur-lex.europa.eu/legal-content/RO/TXT/?uri=celex%3A32014L0053.
7. Rezoluția Parlamentului European din 16 februarie 2017 conținând recomandări adresate Comisiei referitoare la
normele de drept civil privind robotica (2015/2103(INL)) [citat 19.02.2023]. Disponibil: https://eur-lex.europa.eu/legal-
content/RO/TXT/PDF/?uri=CELEX:52017IP0051&from=IT.
8. Raport privind implicațiile în materie de siguranță și răspundere ale inteligenței artificiale, ale internetului
obiectelor și ale roboticii [citat 11.03.2023]. Disponibil: https://eur-lex.europa.eu/legal-
content/RO/TXT/?uri=CELEX:52020DC0064.
9. Puṣcă A., Legal Aspects on the Implementation of Artificial Intelligence, p. 3 [citat 21.02.2023]. Disponibil:
https://eudl.eu/pdf/10.4108/eai.13-7-2018.164174.
10. Cartea Albă – Inteligenṭa artificială – O abordare europeană axată pe excelenṭă ṣi încredere, Bruxelles , 19.2.2020
[citat 19.02.2023]. Disponibil: https://eur-lex.europa.eu/legal-content/RO/TXT/?uri=CELEX%3A52020DC0065.
11. Dumitru M., Inteligenţa artificială între extazul tehnologiei şi agonia răspunderii civile în Analele Ştiinţifice ale
Universităţii „Alexandru Ioan Cuza” – Ştiinţe juridice, Tomul LXIV, Nr. II, Iaşi, 2018, p. 14.
12. Freitas P.M., Andrade F., Novais P., Criminal Liability of Autonomous Agents: From the Unthinkable to the
Plausible. In: Casanovas P., Pagallo U., Palmirani M., Sartor G. (eds) AI Approaches to the Complexity of Legal Systems.
Lecture Notes in Computer Science, vol. 8929, Springer, Berlin, Heidelberg, 2014.
13. Hallevy G., The Criminal Liability of Artifical Inteligence Entities – from Science Fiction to Legal Social Control,
Akron Intellectual Property Journal, vol. 4/2010, March 2016.
14. Kingston J.K.C., Artificial Intelligence and Legal Liability,în Research and Development in Intelligent Systems
XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV.

36

S-ar putea să vă placă și