Sunteți pe pagina 1din 3

INTELIGENȚA ARTIFICIALĂ ȘI DREPTURILE OMULUI

Inteligența artificială este capacitatea unei mașini de a imita funcții umane,


cum ar fi raționamentul, învățarea, planificarea și creativitatea.
Inteligența artificială permite sistemelor tehnice să perceapă mediul în care
funcționează, să prelucreze această percepție și să rezolve probleme, acționând
pentru a atinge un anumit obiectiv. Calculatorul primește date (deja pregătite sau
colectate prin intermediul propriilor senzori, cum ar fi o cameră video), le
prelucrează și reacționează.
Sistemele inteligenție artificiale sunt capabile sa își adapteze, într-o
anumită măsură, comportamentul, analizând efectele acțiunilor anterioare și
funcționând autonom.
În secolul al XXI-lea, tehnicile de IA au înregistrat o renaștere în urma unor
progrese concomitente în puterea de calcul, acumulării de cantități mari de date,
și înțelegerii teoretice; iar tehnicile IA au devenit o parte esențială a industriei
tehnologice, ajutând la rezolvarea multor probleme dificile în domeniul
informaticii, ingineriei software și cercetării operaționale
Odată cu apariția și dezvoltarea inteligentei artificiale, a diversității
sistemelor de inteligență artificială și gama variată de riscuri pe care o prezinta
tehnologia a fost necesară găsire a unei soluții unice adecvate pentru întregul
spectru de riscuri; întrucât, în acest sens, ar trebui să se adopte o abordare în care
experimentele, proiectele-pilot și spațiile de testare în materie de reglementare
să fie utilizate pentru a oferi soluții proporționale și bazate pe dovezi care să
abordeze situații și sectoare specifice atunci când este necesar.
În țările UE, industria digitală și aplicațiile destinate companiilor (business-
to-business) sunt foarte dezvoltate. Cu o infrastructură digitală de înaltă calitate
și un cadru de reglementare care protejează viața privată și libertatea de
exprimare, UE ar putea deveni un lider mondial în economia datelor și
aplicațiile ei.
Rezultatele produse de IA depind de modul în care este concepută și de
datele pe care le utilizează. Atât conceperea, cât și datele pot fi distorsionate în
mod intenționat sau neintenționat. De exemplu, ar fi posibil ca anumite aspecte
importante ale unui chestiuni să nu fie programate în algoritm sau ar putea fi
programate astfel încât să reflecte și să reproducă poziții structurale
distorsionate. În plus, utilizarea cifrelor pentru a reprezenta realitatea socială
complexă ar putea da impresia că IA este concretă și exactă, când de fapt nu
este.
Dacă nu este utilizată corespunzător, IA ar putea conduce la decizii
influențate de date precum etnia, sexul sau vârsta în procese precum angajarea
sau concedierea, acordarea de împrumuturi sau chiar în cadrul procedurilor
penale.
IA ar putea avea un impact grav asupra dreptului la viață privată și la
protecția datelor. Spre exemplu, ar putea fi utilizată în echipamente de
recunoaștere facială sau pentru urmărirea online și crearea de profiluri a
persoanelor fizice. În plus, IA permite fuzionarea unor informații furnizate de o
persoană și obținerea de noi date, ceea ce poate duce la rezultate neașteptate
pentru respectiva persoană. Pornind de la acest aspect, putem vorbi de protejarea
datelor cu caracter personal, principiu consacrat în Carta drepturilor
fundamentale ale Uniunii Europene, care prevede la articolul 8 că:
„(1) Orice persoană are dreptul la protecția datelor cu caracter personal care o
privesc.ˮ
Există multe discuții cu privire la cine poate fi tras la răspundere dacă un
sistem IA provoacă daune, cu atât mai mult în condițiile în care sistemul IA are
capacitatea de autoînvățare și își continuă învățarea după punerea sa în
funcțiune.Parlamentul European a prezentat o serie de recomandări pentru
legislația civilă cu privire la robotică, cu propunerea de a acorda roboților o așa-
numită e-personalitate, astfel ca aceștia să poată fi trași la răspundere în materie
civilă pentru daunele pe care le-ar putea provoca. CESE se declară împotriva
introducerii oricărei forme de statut juridic pentru roboți sau sistemele de IA,
întrucât acest demers induce un risc inacceptabil de hazard moral. Legislația în
materie de răspundere civilă are un efect preventiv de corectare a
comportamentului, care poate dispărea odată ce riscul răspunderii nu îi mai
revine fabricantului, întrucât acesta a fost redirecționat către robot (sau către
sistemul IA). În plus, există riscul de utilizare improprie și abuzivă a unui
asemenea statut juridic. Comparația cu răspunderea limitată a societăților este
eronată în acest caz, întrucât în acea situație responsabilul ultim este întotdeauna
o persoană fizică.
Așadar, inteligența artificială are un impact evident asupra drepturilor
omului, fiind necesar ca noile norme ale acestor sisteme să fie bazat pe principii
comune pentru a proteja în mod eficace valorile europene și drepturile
cetățenilor, și pentru a împiedica eventualele utilizări abuzive.

S-ar putea să vă placă și