Documente Academic
Documente Profesional
Documente Cultură
PrintFriendly
Victor Marcusohn
1. Introducere
Iată că, la numai cȃteva zile, Comisia Europeană vine şi cu serie de clarificări, mai mult decât
bine venite, menite a lămuri unele aspecte neclare sau poate lapidare, ale viitoarei
reglementări.
Nu se poate nega faptul că beneficiile potențiale ale inteligenței artificiale pentru societatea
contemporană sunt multiple, de la îngrijire medicală îmbunătățită la o educație mai bună.
Noua Lege europeană privind IA își propune să abordeze riscurile pentru sănătate, siguranță și
drepturile fundamentale, fără a omite protecţia democrației, a statului de drept și a mediului.
Cu toate acestea, în anumite cazuri, caracteristicile specifice ale anumitor sisteme IA pot crea
noi riscuri legate de siguranța utilizatorilor și drepturile fundamentale ale acestora, ceea ce ar
putea duce la incertitudine juridică pentru companiile private și la o posibilă adoptare mai
lentă a tehnologiilor IA, din cauza lipsei de încredere.
Noua reglementare se va aplica atât actorilor publici, cât și celor privați din interiorul și din
afara UE, atâta timp cât sistemul IA este introdus pe piața UE sau utilizarea sa afectează
persoanele situate în interiorul UE. Actul normativ va viza atât furnizorii de servicii (de
exemplu, un dezvoltator al unui instrument de screening), cât și pe cei care implementează
sisteme IA cu risc ridicat (de exemplu, o bancă comercială care cumpără acest instrument de
screening va trebui să se asigure că furnizorul străin a efectuat deja procedura de evaluare a
conformității produsului).
Aşa cum am arătat şi anterior[2], Comisia propune o abordare bazată pe risc, cu patru niveluri
pentru sistemele IA, precum și o identificare a riscurilor specifice modelelor de uz general:
• Risc minim: toate sistemele din această categorie pot fi dezvoltate și utilizate în
conformitate cu legislația existentă, fără alte obligații suplimentare. Marea majoritate a
sistemelor IA utilizate în prezent sau care ar putea fi utilizate în UE se încadrează în această
categorie. Furnizorii acelor sisteme pot alege să adere la coduri de conduită voluntare.
• Risc ridicat: un număr limitat de sisteme de inteligență artificială definite în propunere, care
pot crea un impact negativ asupra siguranței cetăţenilor sau a drepturilor lor fundamentale
(așa cum sunt acestea protejate în Carta drepturilor fundamentale a UE), sunt considerate a fi
cu risc ridicat. Aceste sisteme vor fi prevǎzute în anexa la regulament, lista acestora putȃnd fi
revizuită periodic.
• Risc inacceptabil: un set limitat de modele dăunătoare ale IA care contravin valorilor UE,
întrucȃt încalcă drepturile fundamentale. Fac parte din această categorie şi vor fi interzise:
– Scoring social în scopuri publice și private;
– Exploatarea vulnerabilităților persoanelor, utilizarea tehnicilor subliminale;
– Identificarea biometrică de la distanță, în timp real, în spații accesibile publicului, de către
autorităţile de aplicare a legii, sub rezerva unor excepţii;
– Delimitarea biometrică a persoanelor fizice pe baza datelor biometrice, pentru a deduce
rasa, opiniile politice, apartenența la un anumit sindicat, convingerile religioase ori filozofice
sau orientarea sexuală a acestora. Căutarea în bazele de date prin folosirea datelor biometrice,
în domeniul aplicării legii, va fi în continuare posibilă;
– Poliție predictivă individuală;
– Recunoașterea emoțiilor la locul de muncă și în instituțiile de învățământ, cu excepția
motivelor medicale sau de siguranță (de exemplu, monitorizarea nivelului de oboseală al unui
pilot);
– Căutarea nedirecționată pe internet sau prin CCTV pentru a identifica imagini faciale, în
scopul construirii sau extinderii de baze de date.
• Risc specific de transparență: pentru anumite sisteme IA se vor impune cerințe specifice
de transparență, mai precis acolo unde există un risc clar de manipulare (de exemplu,
utilizarea chatbot-urilor).
Anexa la lege cuprinde o listă de cazuri care sunt considerate a fi cu risc ridicat, listă ce va fi
actualizată periodic prin grija Comisiei Europene. Astfel, vor face parte din această listă:
– anumite infrastructuri critice, de exemplu în domeniul traficului rutier și al furnizării de apă,
gaz, încălzire și electricitate;
– educația și formarea profesională (de exemplu, evaluarea rezultatelor învățării, coordonarea
procesului de învățare sau monitorizarea fraudei);
– ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de
exemplu, plasarea de anunțuri de angajare clar direcţionate, analizarea și filtrarea cererilor de
angajare, precum şi evaluarea candidaţilor);
– accesul la servicii esențiale private și publice, precum şi la beneficii (de exemplu, asistență
medicală), evaluarea bonității persoanelor fizice și evaluarea riscurilor și stabilirea prețurilor
în legătură cu asigurările de viață și de sănătate;
– anumite sisteme utilizate în domeniile aplicării legii, controlului la frontieră, administrării
justiției și proceselor democratice;
– evaluarea și clasificarea apelurilor de urgență;
– sisteme biometrice de identificare; delimitarea și recunoașterea emoțiilor (în afara
categoriilor interzise);
– sistemele recomandate de platformele online foarte mari nu sunt incluse, deoarece acestea
sunt deja acoperite de alte reglementări (RPD[3]/RSD[4]).
Sistemele de pe lista cu risc ridicat, care îndeplinesc sarcini procedurale restrânse, care
îmbunătățesc rezultatul activităților umane, care nu influențează deciziile umane sau care
îndeplinesc sarcini pur pregătitoare, nu vor fi considerate cu risc ridicat. Cu toate acestea, un
sistem IA va fi considerat, întotdeauna, cu risc ridicat dacă are rolul de a crea profile pentru
persoanele fizice.
Înainte de a introduce un sistem IA cu risc ridicat pe piața UE sau de a-l pune în funcțiune în
alt mod, furnizorii trebuie să îl supună unei evaluări a conformității. Acest lucru le va
permite să demonstreze că sistemul respectă cerințele obligatorii de încredere pentru IA (de
exemplu, calitatea datelor, documentație și trasabilitate, transparență, supraveghere umană,
acuratețe, securitate cibernetică și robustețe). Această evaluare trebuie repetată dacă sistemul
sau scopul acestuia sunt modificate substanțial.
Sistemele de IA cu risc ridicat care sunt implementate de autoritățile publice sau de entitățile
care acționează în numele acestora vor trebui înregistrate într-o bază de date publică a UE, cu
excepția cazului în care aceste sisteme sunt utilizate pentru forţele de aplicare a legii și pentru
analiza fenomenului migraţiei.
3. Modele IA de uz general
Legea IA ia în considerare riscurile sistemice care ar putea apărea prin folosirea modelelor IA
de uz general, inclusiv modelele mari generatoare de IA. Unele dintre acestea ar putea
prezenta riscuri sistemice dacă sunt utilizate la scară largă (de exemplu, accidente informatice
grave sau utilizarea pentru atacuri cibernetice de anvergură).
Deocamdată, modelele IA de uz general care au fost create prin folosirea unei puteri totale de
calcul mai mare de 10^25 FLOP-uri sunt considerate cǎ ar avea riscuri sistemice. Oficiul IA
(înființat în cadrul Comisiei Europene) poate actualiza acest prag în lumina progreselor
tehnologice și, în plus, în cazuri specifice, poate desemna alte modele similare pe baza unor
criterii suplimentare (de exemplu, numărul de utilizatori sau gradul de autonomie al
modelului).
Acest prag de 10^25 FLOP-uri a fost desemnat deoarece captează cele mai avansate modele
GPAI ale momentului, și anume GPT-4 de la OpenAI și Gemini de la Google DeepMind.
Capacitățile modelelor peste acest prag nu sunt încă suficient de bine înțelese. FLOP este un
prim proxy pentru capabilitățile modelului, iar pragul FLOP exact poate fi actualizat de către
Oficiul European IA[5], în funcţie de progresele în măsurarea obiectivă a capabilităților
modelului și de evoluţia puterii de calcul necesară pentru un anumit nivel de performanță.
4. Identificarea biometrică
Utilizarea identificării biometrice la distanță, în timp real, în spații accesibile publicului (adică
recunoașterea facială folosind CCTV) în scopuri de aplicare a legii este interzisă, cu excepția
cazului în care este utilizată în unul dintre următoarele cazuri:
– activități de aplicare a legii cu privire la 16 infracțiuni clar delimitate, şi anume: terorism;
trafic de ființe vii; exploatarea copiilor în scop sexual și folosirea de materiale care conţin
abuz sexual asupra copiilor; traficul ilicit de stupefiante și substanțe psihotrope; traficul ilicit
de arme, muniții și explozibili; omor; vătămarea corporală gravă; comerțul ilicit cu organe și
țesuturi umane; traficul ilicit de materiale nucleare sau radioactive; răpire, reținere ilegală și
luare de ostatici; infracțiuni de competența Curții Penale Internaționale; sechestrarea ilegală
de aeronave/nave; violul; criminalitate ecologică; jaf organizat sau armat; sabotaj, participarea
la o organizație criminală implicată în una sau mai multe infracțiuni enumerate mai sus.
– căutarea direcționată a anumitor victime, răpirea, traficul și exploatarea sexuală a ființelor
umane și a persoanelor dispărute, sau
– prevenirea amenințării vieții sau siguranței fizice a persoanelor ori răspunsul la amenințarea
prezentă sau previzibilă a unui atac terorist.
Identificarea biometrică poate îmbrăca diferite forme. Poate fi folosită pentru autentificarea
utilizatorului, adică pentru a debloca un smartphone sau pentru verificare/autentificare la
punctele de trecere a frontierei, dar poate fi utilizată și de la distanță, pentru identificarea
persoanelor dintr-o mulțime (de exemplu, o imagine a unei persoane este verificată cu
informaţiile dintr-o bază de date).
Precizia sistemelor de recunoaștere facială poate varia semnificativ în funcție de o gamă largă
de factori, cum ar fi calitatea camerei de luat vederi, lumina, distanța, baza de date,
algoritmul, precum și etnia, vârsta sau sexul subiectului. Același lucru este valabil și pentru
mers, recunoașterea vocii și alte sisteme biometrice.
Statele membre vor avea un rol-cheie în punerea în aplicare a prezentului regulament, sens în
care fiecare stat membru va trebui să desemneze una sau mai multe autorități naționale
competente pentru a supraveghea și punerea în aplicare, precum și pentru a desfășura
activități de supraveghere a pieței.
Pentru a crește eficiența și pentru a stabili un punct oficial de contact cu publicul și cu alte
persoane interesate, fiecare stat membru va trebui să desemneze o autoritate națională de
supraveghere, care va reprezenta țara şi în Comitetul european pentru inteligență artificială.
6. Sancţiuni
Atunci când sistemele IA care sunt introduse pe piață sau în uz, nu respectă cerințele
regulamentului, statele membre vor trebui să stabilească sancțiuni eficiente, proporționale și
disuasive, inclusiv amenzi administrative, în legătură cu încălcările respective și să le
comunice Comisiei.
Pentru fiecare categorie, pragul va fi cel mai mic dintre cele două sume pentru IMM-uri și cel
mai mare pentru alte companii.
De asemenea, furnizorii de modele IA de uz general, care folosesc cantități mari de date și,
prin urmare, sunt predispuși la un consum mare de energie, vor trebui să facă public
consumul de energie. În cazul modelelor IA de uz general cu riscuri sistemice, eficiența
energetică va trebui, de asemenea, evaluată.
Pentru a conchide, apreciem că pe de o parte, crearea unui cadru juridic coerent va facilita
creșterea încrederii utilizatorilor, ceea ce va conduce la o creştere a solicitărilor de utilizare a
IA la nivel de companii private şi de autorităţi publice. Pe de altă parte, prin creșterea
securității juridice și armonizarea regulilor, furnizorii de IA vor accesa piețe mai mari, cu
produse pe care utilizatorii și consumatorii le solicită, le apreciază și le cumpără.
Legea IA este parte a efortului Uniunii Europene de a fi un lider global în promovarea unei IA
de încredere la nivel internațional. Inteligența artificială a devenit o zonă de importanță
strategică la răscrucea dintre geopolitică, mize comerciale și preocupări de securitate.
Deşi reglementările în domeniul IA sunt abia la început, Uniunea Europeană şi-a asumat deja
rolul de lider mondial, sens în care şi-a manifestat intenţia explicită de a extinde
parteneriatele, coalițiile și alianțele în domeniu cu diferiţi parteneri globali, fie la nivel statal
(de exemplu, Japonia, SUA, India, Canada, Coreea de Sud, Singapore sau regiunea Americii
Latine și zona Caraibelor), fie la nivel instituţional (OCDE, G7 și G20).
[1] https://www.juridice.ro/717781/legea-privind-inteligenta-artificiala-ai-act-tot-mai-aproape.html
[2] Ibidem.
[3] Regulamentul (UE) 2022/1925 al Parlamentului European şi al Consiliului din 14 septembrie 2022, privind
piețe contestabile și echitabile în sectorul digital și de modificare a Directivelor (UE) 2019/1937 și (UE)
2020/1828 (Regulamentul privind piețele digitale): https://eur-lex.europa.eu/legal-content/RO/TXT/PDF/?
uri=CELEX:32022R1925
[4] Regulamentul (UE) 2022/2065 al Parlamentului European şi al Consiliului din 19 octombrie 2022, privind o
piață unică pentru serviciile digitale și de modificare a Directivei 2000/31/CE (Regulamentul privind serviciile
digitale): https://eur-lex.europa.eu/legal-content/RO/TXT/HTML/?uri=CELEX:32022R2065
[5] Prin legislaţie delegată.
[6] Propunere de Directivă a Parlamentului European şi a Consiliului privind adaptarea normelor în materie de
răspundere civilă extracontractuală la inteligența artificială (Directiva privind răspunderea în materie de IA):
https://eur-lex.europa.eu/legal-content/RO/TXT/HTML/?uri=CELEX:52022PC0496