Sunteți pe pagina 1din 12

Inteligența artificială și răspunderea pentru lucruri.

Propunere de lege ferenda pentru o reglementare specială.

Autor : ENACHE Maria


Departament : Drept
Universitatea Româno-Americană
enache.ii.maria20@student.rau.ro

Abstract.
In a very fast developing world, it is important to pay special attention to the risks that come
along with the development. One of the great challenges of today’s world is the involvement of artificial
intelligence in all major sectors of our economy. The topic that the article will address is centered on
artificial intelligence from the civil liability point of view with the purpose of assessing whether the
current legal regime regarding civil liability is sufficient to meet the challenges that may rise along with
the presence of artificial intelligence in our lives. The complexity and the autonomy of AI systems raised
both legal and ethical issues and created the need of special regulatory framework in this regard. In order
to prevent the possible future negative outcomes, this project’s goal is to identify legal issues and propose
as a solution special regulations on artificial intelligence.
Key words : artificial intelligence, civil law, civil liability, special regulations.

Rezumat.
Într-o lume în curs de dezvoltare foarte rapidă, este important să se acorde o atenție deosebită
riscurilor care vin odată cu dezvoltarea. Una dintre marile provocări ale lumii de astăzi este implicarea
inteligenței artificiale în toate sectoarele majore ale economiei noastre. Subiectul pe care îl va aborda
articolul este centrat pe inteligența artificială din punct de vedere al răspunderii civile, cu scopul de a
evalua dacă regimul juridic actual privind răspunderea civilă este suficient pentru a face față provocărilor
care pot apărea odată cu prezența inteligenței artificiale în viețile noastre. Complexitatea și autonomia
sistemelor AI au ridicat probleme atât juridice, cât și etice și au creat necesitatea unui cadru de
reglementare special în acest sens. Pentru a preveni eventualele rezultate negative viitoare, scopul acestui
proiect este de a identifica problemele juridice și de a propune ca soluție reglementări speciale privind
inteligența artificială.
Cuvinte cheie : inteligență artificială, drept civil, răspundere civilă, reglementare specială.
Introducere
Una dintre cele mai mari provocări, foarte puternic dezbătute în ultima perioadă este
introducerea sistemelor de inteligență artificială (IA) în sectoarele importante ale societății cum
ar fi economia, sănătatea, educația, mediul de afaceri sau forța de muncă, tehnologiile bazate pe
IA fiind considerate capabile de a ne îmbunătăți viața în aproape toate domeniile, de la sfera
personală (de exemplu sectorul transporturilor, educația personalizată, asistență pentru
persoanele vulnerabile), la mediul de lucru (reducerea sarcinilor obositoare și repetitive) și la
provocările globale.
Însa pe lângă oportunitățile pe care inteligența artificială le poate crea pentru economia și
societatea noastră, aceasta poate să comporte și un risc de prejudiciere a intereselor, atât
materiale, cât și imateriale, protejate prin lege. Riscul producerii unor astfel de prejudicii va
deveni tot mai mare pe măsură ce domeniul aplicațiilor se va extinde.
Astfel, în contextul în care inteligența artificială presupune o abordare multidisciplinară
și având în vedere problematica profundă, proiectul de față își propune să analizeze răspunderea
civilă aplicabilă IA și necesitatea existenței unor cadre normative speciale în acest sens.
Pentru aceasta, se va face referire la articole privind răspunderea delictuală civilă din
cadrul Noului Cod Civil, la legi speciale precum legea24/2004 privind răspunderea
producătorilor pentru pagubele generate de produsele cu defecte, la rezoluții ale Parlamentului
European înaintate Comisiei cu privire la răspunderea în cazul sistemelor artificiale și la alte
articole relevante.
Inteligența artificială dinspre trecut spre viitor

Așa cum transporturile, infrastructura industrială și serviciile publice de calitate au


asigurat prosperitatea României și a întregii Europe în trecut, tot astfel investițiile în
infrastructura digitală, precum și îmbunătățirea competențelor și modernizarea interacțiunii
dintre autoritățile publice și cetățeni vor sta la baza prosperității noastre viitoare.
Cea mai veche lucrare substanțială în domeniul inteligenței artificiale a fost făcută de
către matematicianul și informaticianul britanic Alan Turing la mijlocul secolului al XX-lea,
acesta prezentând în anul 1950 așa-numitul joc al imitației („the imitation game”) , astăzi
celebrul test Turing, prin care se afla dacă o mașină este capabilă să gândească. Conform
testului Turing, cineva trebuie să discearnă între o persoană și o mașină, fără să îi vadă, doar pe
baza răspunsurilor acestora la întrebări, răspunsurile fiind date numai în scris (de exemplu printr-
o imprimantă). Dacă răspunsurile mașinii sunt atât de bune încât cel care pune întrebările nu
reușește să își dea seama exact cine este persoana și cine este mașina, atunci mașina a trecut
testul și se poate spune că ea gândește.
Ulterior, pornind de la acest test, inteligența artificială a stârnit multă curiozitate și o
dorință uriașă de dezvoltare, preconizându-se astfel într-un studiu publicat de către Universitatea
Standford1 că până în 2030 vor exista mașini și vehicule de livrare aeriană, dispozitive de
monitorizare a sănătății personale pe scară largă, chirurgia asistată de roboți și sisteme
interactive de îndrumare care vor ajuta elevii să învețe limbi străine, fără a ne limita însă doar la
acestea.

Definiții ale Inteligenței Artificiale

IA este un concept dificil de definit, datorită ritmului său accelerat de dezvoltare precum
și datorită numeroaselor sale forme de existență. Astfel, există mai multe definiții date de diferiți
autori, urmând să se expună cele mai relevante dintre ele:
Potrivit English Oxford Dictionary, IA reprezintă „teoria și dezvoltarea sistemelor
informatice capabile să îndeplinească sarcini care necesită în mod normal inteligența umană,
cum ar fi percepția vizuală, recunoașterea vorbirii, luarea deciziilor și traducerea în mai multe
limbi”2.
Enciclopedia Britannica definește IA drept „capacitatea unui calculator digital sau a unui
robot controlat de calculator de a îndeplini sarcini asociate de obicei cu fințele inteligente” 3,
ființele inteligente fiind acele entități care see pot adapta la circumstanțe în schimbare.

1
One Hundred Year Study on Artificial Intelligence disponibil la adresa web https://ai100.stanford.edu/
2
A se vedea definiția IA potrivit English Oxford Dictionary la adresa web
https://www.lexico.com/definition/artificial_intelligence
3
A se vedea definiția IA potrivit Britannica la adresa web https://www.britannica.com/technology/artificial-intelligence
În manualul „Artificial Intelligence: A Modern Approach”, autorii Stuart Russel și Peter
Norvig definesc IA ca „studiul agenților care primesc percepții din mediul înconjurător și
efectuează acțiuni”4.
O definiție mai cuprinzătoare a IA a fost dată de către Grupul de experți la nivel înalt în
cadrul unui raport înaintat Comisiei Europene, conform căreia sitemele ce folosesc inteligența
artificială „sunt sisteme software proiectate de oameni, care, dacă li se dă un obiectiv complex,
acționează în dimensiunea fizică sau digitală, percepând mediul prin intermediul preluării
datelor, prin interpretarea datelor structurate sau nestructurate colectate, prin raționarea cu privire
la cunoștințe sau prin prelucrarea informațiilor obținute din aceste date și prin deciderea
celei/celor mai bune acțiuni care trebuie întreprinse pentru a realiza obiectivul dat.  Sistemele IA
pot fie să utilizeze reguli simbolice, sau să învețe un model numeric și, de asemenea, își pot
adapta comportamentul analizând modul în care mediul este afectat de acțiunile lor anterioare.”5

Clasificare și caracteristici ale Inteligenței Artificiale

În momentul actual, există trei tipuri de prelucrare a datelor în funcție de tehnologia


folosită și de complexitatea acesteia. Crearea tehnologiei de învățare automată(machine
learning) a crescut dramatic impactul inteligenței artificiale , rezultatul constând într-un progres
semnificativ în multe domenii fundamentale de cercetare IA cum ar fi: procesarea limbajului
natural, vehicule autonome și robotică, computer vision, învățarea limbajului6.
Sisteme expert (Expert systems). Algoritmii matematici sunt utilizați pentru crearea unor sisteme
IA bazate pe reguli numite și sisteme expert. Pentru a construi sisteme expert, programatorul va
codifica cu exactitate cunoștințele sale proprii cu privire la problema pe care dorește să o rezolve
cu ajutorul computerului. Sistemul astfel creat este capabil să ofere în mod automat asistență
într-un domeniu limitat. În timp ce sistemele expert pot duce la rezultate impresionante într-o
serie de domenii, eficiența lor este limitată, deoarece depind de cunoștințele din domeniu ale
unui expert pentru a-și genera rezultatele (ex. programatorul care construiește un motor de șah,
ar codifica propriile cunoștințe despre șah în computer, dar algoritmul creat nu ar putea depăși
niciodată nivelul de cunoaștere al programatorului despre șah deoarece nu este altceva decât o
reimplementare a cunoștințelor creatorului).
Programatorul nu poate codifica într-o manieră completă toate cunoștințele sale într-un
algoritm, și nici modul în care creierul său gândește efectiv mutările sau face asocieri. Atâta timp
cât o problemă se încadrează exact în parametrii introduși de programator, rezultatul sistemului
va fi unul bun. Cu toate acestea, de îndată ce problema nu se încadrează în parametrii specificați,
sistemul nu va putea să determine un rezultat.
Învățarea automata sau Machine learning (ML). Machine learning funcționează într-un alt
mod. În loc să încerce să își codifice cunoștințele în sistem, programatorul va arăta algoritmului
o serie de exemple și o etichetă pentru date, apoi sistemul își va da seama care sunt elementele pe
care aceste exemple le au în comun. Cu cât sunt prezente mai multe exemple, cu atât algoritmul
va deveni mai bun (ex. programatorul ar selecta un număr mare de imagini cu pisici și un număr
4
A se vedea Stuart J. Russell, Peter Norvig Artificial Intelligence: A Modern Approach fourth edition 2021
5
Orientări în materie de etică pentru o inteligență artificială fiabilă elaborat de Grupul de Experți la nivel înalt privind AI
(AI HLEG), elaborat în aprilie 2019 în cadrul Comisiei Europene
6
OECD, Artificial Intelligence in Society, OECD Publishing, Paris, 2019, p. 21 disponibilă la adresa web
https://www.oecd-ilibrary.org/science-and-technology/artificial-intelligence-in-society_eedfee77-en
mare de imagini cu câini. Aceste imagini sunt prezentate sistemului, care le-ar încadra într-o
categorie prestabilită introdusă de programator – câine sau pisică. Analizând toate datele și
identificând tiparele, sistemul va construi un model din elemenele definitorii pentru fiecare
categorie și va prezenta o imagine pe care nu a mai vazut-o anterior).
Sistemul învață recunoscând tipare („patterns”) și creând noi conexiuni între date,
imitând modul de funcționare și sinsapsele celulelor neuronale din creierul uman (creierul uman
recunoaște tipare, de asemenea). Analizând structura unei rețele neuronale de tip machine
learning7 observăm că sistemul este cu atât mai complex cu cât există mai multe celule. Însă
există și posibilitatea unui rezultat negativ („bias”), care se datorează unor false conexiuni pe
care sistemul le-a creat în cadrul procesului de învățare.
Învățarea profundă sau Deep learning (DL). Deep learning este o subcategorie de algoritmi de
învățare automată. Diferența dintre ML și DL este că aceasta din urmă este structurată în straturi
ierarhice, astfel în loc să extragă manual caracteristici din date, programatorul poate alimenta
direct datele la algoritmul de învățare profundă , care va găsi automat caracteristicile relevante.
Dacă în cazul învățării automate, pentru recunoașterea de obiecte în imagini, programatorii
trebuiau să găsească trăsături specifice obiectelor, să le extragă din imagini și să le aplice un
algoritm de clasificare, în cazul învățării profunde nu sunt necesare toate aceste etape deoarece
ele invață să facă aceasta în mod automat.
Analizând structua unei rețele neuronale de tip deep learning 8, observăm că acestea au
mai mult de două straturi ascunse („hidden layers”). Modul în care se realizează conexiunile
între celulele neuronale din straturile ascunse nu este încă pe deplin cunoscut, astfel ca aceste
matrici au fost numite cutii negre („black-box-uri”). Metafora cutiei negre datează din primele
zile ale ciberneticii și se referă de obicei la un sistem la care putem observa doar intrările și
ieșirile, dar nu și funcționările interne9.
Important de menționat este că funcționarea de tip „black-box” a rețelelor neuronale de
învățare profundă poate duce la o lipsă de claritate în ceea ce privește alocarea răspunderii între
furnizori, operatori și utilizatori ai IA în cazul producerii de daune.
Bazându-ne pe definițiile atribuie IA și pe modul de funcționare al tipurilor de algoritmi,
putem exrage trei caracteristici importante si extrem de utile în vederea abordării angajării
răspunderii civile :
1. Autonomia, manifestată prin capacitatea sistemelor IA de a efectua activități care erau
rezervate exclusiv ființelor umane și de a dezvolta anumite trăsături autonome și cognitive
– de ex. abilitatea de a învăța din experiență și de a lua decizii cvasi-independente,
căpătând astfel un caracter de impredictibilitate;
2. Opacitatea, datorată existenței de straturi ascunse în rețelele neuronale create de IA în
vederea luării deciziilor și manifestată prin imposibilitatea identificării factorului
decizional, deci implicit imposibiltatea stabilirii cauzei care a dus la crearea unui eventual
prejudiciu;
3. Complexitatea, dată de o multitudine de componente software și de sisteme de algoritmi și
servicii și de caracterul deschis spre actualizări și modernizări după introducerea lor pe
piață.

7
A se vedea Figura 1 – Topografia unei rețele neuronale tradiționale Machine Learning sub titlul „Tabele și Figuri”
8
A se vedea Figura 2 – Topografia unei rețele neuronale Deep Learning sub titlul „Tabele și Figuri”
9
Dallas Card, The „black box” metaphor in machine learning, Towards Data Science, 5 iulie 2017 disponibil la adresa web
https://dallascard.medium.com/the-black-box-metaphor-in-machine-learning-4e57a3a1d2b0
Problema recunoașterii personalității juridice în cazul roboților ce folosesc IA

La nivelul UE, în cadrul Parlamentului European, a apărut inițiativa de a introduce un


nou subiect de drept și anume „persoana electronică”, ce se dorește a fi atribuită inteligenței
artificiale de tip uman ce are capacitate decizională proprie și rațiune proprie. În cadrul raportului
înaintat10 se propune acordarea pe termen lung a unui statut juridic specific pentru roboți, astfel
încât, cel puțin roboții autonomi cu un grad mare de complexitate să poată avea statut de
persoane electronice responsabile de repararea oricăror daune pe care le pot provoca.
În acest sens, a fost înaintată o scrisoare deschisă 11 de către experții din domeniul
roboticii și al inteligenței artificiale, împreună cu lideri și experți din domenii importante precum
dreptul și medicina, în care au fost exprimate ingrijorarea și dezacordul cu privire la
recomandarea făcută de către Parlamentului European în vederea creării unei „persoane
electronice”.
Oferirea personalității juridice roboților sau IA de tip uman nu ar fi utilă în mod practic,
întrucât răspunderea presupune și impunerea unor sancțiuni restrictive de libertate sau impunerea
unor obligații pecuniare pe care acestea nu le-ar putea onora. Mai mult, trebuie punctat faptul că
la acest moment, atragerea răspunderii civile este strict legată de o persoană, aceasta neputând
exista în absența subiectului uman.
Prin urmare, subscriu la opinia jurisprudențială12 potrivit căreia în viitorul apropiat nu
este indicată crearea unei personalități juridice a roboților, ci doar consolidate și armonizate
legislația și standardele în domeniu.

Cadrul existent în materie de răspundere și nevoia de reglementare specială

Obiectivul oricărui cadru juridic este de a asigura că toate produsele și serviciile, inclusiv
cele care folosesc tehnologii digitale, funcționează în condiții de siguranță și că prejudiciile
produse sunt reparate într-un mod eficient. Existența unui nivel de siguranță ridicat pentru
produsele și sistemele care includ tehnologii digitale noi și crearea unui mecanism robust de
reparare a prejudiciilor produse (cu alte cuvinte, cadrul în materie de răspundere) contribuie la o
mai bună protecție a consumatorului, lucru care va conferi încredere în aceste tehnologii,
condiție esențială pentru adoptarea lor atât la nivel industrial cât și la nivel de utilizator.
În prezent, răspunderea civilă delictuală este bine reglementată în Noul Cod Civil, unde
sunt prevăzute norme atât pentru răspunderea subiectivă (pentru fapta proprie), cât și pentru
10
Parlamentul European, Raport din 27 ianuarie 2017, accesibil la adresa web
https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html?redirect
11
A se vedea conținutul scrisorii deschise la adresa web http://www.robotics-openletter.eu/
12
R Abbott/A Sarch, ‘Punishing Artificial Intelligence: Legal Fiction or Science Fiction’, UC Davis Law Review,
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3327485
răspunderea obiectivă (pentru fapta altuia, pentru lucruri), în același timp existând și forme de
răspundere civilă reglementate de legi speciale cum este Legea nr. 240/2004 privind răspunderea
producătorilor pentru pagubele generate de produsele cu defecte 13, potrivit căreia producătorul
este considerat conform art.2 alin.1 lit. a):

„1. fabricantul produsului finit al unei materii prime sau părţi componente ale produsului;

2. orice persoană care se prezintă ca producător, prin faptul că îşi înscrie pe produs numele,
marca sau alt semn distinctiv;

3. orice altă persoană, care importă un produs în România în vederea vânzării, închirierii,


cumpărării sau altei forme de înstrăinare în cadrul activităţii proprii de comercializare în
cadrul societăţii, este considerată producător al acestuia şi răspunde în aceeaşi măsură ca şi
producătorul;

4. orice altă persoană, care importă un produs din Uniunea Europeană în vederea vânzării,
închirierii, cumpărării sau altei forme de înstrăinare în cadrul activităţii proprii de
comercializare în cadrul societăţii, este considerată producător al acestuia şi răspunde în
aceeaşi măsură ca şi producătorul;

5. dacă producătorul unui produs nu poate fi identificat, fiecare furnizor al produsului respectiv


va fi tratat drept producător, dacă el nu comunică consumatorului prejudiciat, într-un interval
de timp rezonabil, datele de identificare a producătorului sau a persoanei care i-a furnizat
produsul; această dispoziţie este valabilă şi pentru un produs importat, în cazul în care produsul
nu indică identitatea importatorului prevăzut la pct. 3 ori 4, chiar dacă este precizat numele
producătorului.”

Este de precizat faptul că se angajează răspunderea civilă a producătorului dacă persoana


prejudiciată face dovada pagubei, a defectului și a raportului de cauzalitate dintre defect și
pagubă conform art. 6 din aceeași lege, dar in cazul IA, defectul nu este facil de identificat. Mai
mult, producătorul este exonerat de răspundere potrivit art. 7 din Legea nr. 240/2004 dacă nivelul
cunoștințelor științifice și tehnice existent la momentul punerii în circulație a produsului nu i-a
permis depistarea defectului în cauză sau, în funcție de împrejurări, defectul care a generat
paguba nu a existat la data la care produsul a fost pus în circulație sau a apărut ulterior punerii în
circulație a produsului, din cauze neimputabile lui.

Având în vedere că AI este un „produs viu”,  în sensul că se adaptează și învață din datele
nou obținute, există oricând posibilitatea ca produsul să evolueze, să nu mai corespundă „formei
inițiale”, deși algoritmul nu este schimbat, și producătorul să fie exonerat de răspundere conform
celor de mai sus. Astfel, se va ridica problema referitoare la cine va răspunde pentru prejudiciul
cauzat.

Din aceleași considerente, și anume complexitatea IA, capacitatea de a-și adapta


comportamentul analizând modul în care mediul este afectat de acțiunile sale anterioare,
capacitatea decizională proprie și rațiunea poprie, se ridică o a doua problemă, anume dacă
paznicul juridic se mai află în posibilitatea de a exercita controlul și supravegherea asupra
sistemelor IA, ca parte a regimului juridic al lucrurilor.

13
Publicată în M.Of. Partea I, nr. 552 din 22 iunie 2004 ca o transpunere a Directivei nr. 85/374/CEE din 25 iulie 1985
privind răspunderea producătorului, publicată în Jurnalul Oficial al Comunităţilor Europene (JOCE) nr. L210 din 7 august
1985, modificată şi completată prin Directiva nr. 1.999/34/CE a Parlamentului European şi a Consiliului, publicată în
Jurnalul Oficial al Comunităţilor Europene (JOCE), nr. L141 din 4 iunie 1999
Pentru a înțelege noțiunea de pază juridică, ne vom raporta la definiția dată de art.1377
Cod Civil, conform căreia paza juridică o are cel care „exercită în mod independent controlul și
supravegherea animalului sau a lucrului și se servește de acesta în interes propriu.”14
Analizând mai departe condițiile pentru existența și angajarea răspunderii prevăzute de
art. 1376 alin. (1) Cod Civil, vom vedea că trebuie îndeplinite cumulativ trei condiții: două
generale - un prejudiciu și raportul de cauzalitate dintre lucru și prejudiciu și una specială, ce
constă în faptul că lucrul care a cauzat prejudiciul este necesar să se afle în paza juridică a unei
persoane.15
Având în vedere autonomia, opacitatea și complexitatea sistemelor IA, așa cum au fost
explicate mai sus, se poate considera că paznicul juridic se află în imposibilitatea de a exercita în
mod independent controlul și supravegherea lucrului de care se servește, astfel nemaifiind
îndeplinite condițiile pentru atragerea răspunderii civile în temeiul art. 1376 Cod Civil.
Astfel se naște nevoia unor noi reglementări în materie de inteligență artificială pentru a
putea delimita situațiile care pot sau nu atrage răspunderea pentru sistemele ce folosesc IA în
cadrul art. 1376 din Codul Civil, ținând cont de caracterul autonom, complexitatea, opacitatea și
vulnerabilitatea sistemelor IA date de capacitatea de modificare prin actualizări și învățare.

Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări


adresate Comisiei privind regimul de răspundere civilă pentru inteligența artificială 16 poate fi
folosită drept punct de referință pentru întâmpinarea problemelor de acest gen, astfel se propune
implementarea următoarelor articole de lege în vederea introducerii lor în Codul Civil, așa cum
au fost descrise în cadrul Parlamentului European:

(1) „Operatorul unui sistem de IA cu grad ridicat de risc este răspunzător obiectiv pentru
orice daune sau prejudicii care au fost cauzate de o activitate fizică sau virtuală, de un
dispozitiv sau un proces condus de acest sistem de IA.
(2) Operator înseamnă persoana fizică sau juridică care exercită un grad de control asupra
unui risc legat de operarea și funcționarea sistemului de IA și care beneficiază de
operarea acestuia;
(3) Operatorii unor sisteme de IA cu grad ridicat de risc nu se pot exonera de răspundere
susținând că au acționat cu diligența necesară sau că dauna sau prejudiciul a fost cauzat
de o activitate autonomă, de un dispozitiv sau de un proces determinat de sistemul lor de
IA. Operatorii nu sunt considerați răspunzători dacă dauna sau prejudiciul a fost cauzat
de un caz de forță majoră.”
În completarea propunerilor legislative, se doresc a fi în considerate și următoarele aspecte:
1. Întrucât autonomia sistemelor IA ridică problema naturii lor în contextul actualelor
categorii juridice, a se avea în vedere crearea unei noi categorii, cu propriile sale
caracteristici și implicații.
2. Întrucât, cu cât sunt mai autonome, cu atât mai puțin pot fi considerate simple
instrumente la dispoziția paznicului lor juridic, a se avea în vedere crearea unor condiții

14
A se vedea cum este definită noțiunea de pază în conformitate cu Noul Cod Civil https://www.codulcivil.ro/art-1377-
notiunea-de-paza/
15
A se vedea Liviu Pop - Tratat elementar de drept civil. Obligațiile, Universul Juridic, București 2012, pag. 508
16
A se vedea Rezoluția Parlamentului European din 20 octombrie 2020 conținând recomandări adresate Comisiei privind
regimul de răspundere civilă pentru inteligența artificială la adresa web
https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_RO.html
speciale de angajare a răspunderii în funcție de tipul de IA implicat și totodată stabilirea
unor criterii de clasificare a sistemelor IA în funcție de complexitatea acestora.
3. Întrucât în situația în care un sistem IA poate lua decizii autonome, însă nu poate fi ținut
răspunzător per se pentru acte care provoacă daune unor terți, a se avea în vedere crearea
unui mecanism de asigurare obligatoriu pentru folosirea sistemelor IA (similară celei deja
în uz aplicabilă autovehiculelor).
Concluzii

Față de cele expuse în prezentul articol, considerăm că odată cu dezvoltarea tehnologiei,


se naște nevoia regândirii sistemului legislativ actual, tinându-se astfel cont de provocările pe
care inteligența artificială le poate ridica, fapt accentuat de complexitatea sistemelor de
inteligență artificială, opacitatea și autonomia pe care acestea le au în ceea ce privește factorul
analitic și cel decizional, acestea putând crea confuzii în ceea ce privește angajarea răspunderii
civile delictuale.
Bibliografie :
https://www.juridice.ro/693832/scurte-consideratii-privind-raspunderea-inteligentei-artificiale-
in-romania-sub-unghiul-mort-al-ai.html#_edn4
https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_RO.html
https://www.europarl.europa.eu/cmsdata/131191/juri-consultare-robotica-rezumat.pdf
https://www.codulcivil.ro/
https://legislatie.just.ro/Public/DetaliiDocument/52850
https://www.juridice.ro/588181/roboticslaw-intre-asumarea-evolutiei-tehnologice-si-
reglementarea-raspunderii-civile-i.html#_ftn12
https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_RO.html?redirect

Tabele și Figuri :
Figura 1. Topografia unei rețele neuronale Machine Learning
Sursa: https://miro.medium.com/max/2640/1*fB4Jkdlc-a5dDFeAVQVqbQ.png
Figura 2. Topografia unei rețele neuronale Deep Learning
Sursa : https://www.researchgate.net/profile/Meriem-Bahi/publication/330120030/figure/fig1/
AS:735637925797888@1552401157053/Deep-Neural-Network-architecture.ppm

S-ar putea să vă placă și