Sunteți pe pagina 1din 15

Machine Translated by Google

Politica de telecomunicații 44 (2020) 101953

Liste de conținut disponibile la ScienceDirect

Politica de telecomunicații

pagina de pornire a jurnalului: http://www.elsevier.com/locate/telpol

Etica sistemelor de arme autonome și aplicabilitatea acesteia la oricare


sisteme AI
� �

Înger Gomez de Agreda

Forțele Aeriene Spaniole, Spania

INFORMATII ARTICOL ABSTRACT

Cuvinte cheie: Majoritatea tehnologiilor de inteligență artificială sunt cu dublă utilizare. Ele sunt încorporate atât în aplicații
Etica AI civile pașnice, cât și în sistemele de arme militare. Cele mai multe dintre codurile de conduită și principiile etice
Control uman semnificativ existente privind inteligența artificială se adresează primelor, ignorând în mare măsură pe cele din urmă. Dar
Arme autonome
atunci când aceste tehnologii sunt folosite pentru a alimenta sistemele special concepute pentru a provoca
Explicabilitate
vătămări, trebuie pusă întrebarea dacă etica aplicată sistemelor militare autonome ar trebui luată în considerare
CCW
AI cu dublă utilizare
și pentru toate tehnologiile de inteligență artificială susceptibile de a fi utilizate în aceste scopuri. Cu toate
acestea, în timp ce înghețarea investigațiilor nu este nici posibilă și nici de dorit, nici menținerea actualului status
quo nu este. Comparația dintre codurile etice de uz general și cele militare concluzionează că majoritatea
principiilor etice se aplică utilizării umane a sistemelor de inteligență artificială, atâta timp cât sunt îndeplinite
două caracteristici: că modul în care funcționează algoritmii este înțeles și că oamenii păstrează suficient control.
În acest fel, agenția umană este pe deplin păstrată și responsabilitatea morală este păstrată independent de
potențiala dublă utilizare a tehnologiei inteligenței artificiale.

1. Introducere

Evoluțiile recente în inteligența artificială (AI) și concurența globală au crescut ritmul cercetării și dezvoltării în acest domeniu. Colectarea datelor
pentru a alimenta algoritmii ridică preocupări serioase cu privire la aspecte precum confidențialitatea, care sunt rareori evaluate corect și suficient de profund.
Deși cele mai multe utilizări ale acestor tehnologii beneficiază omenirea, ele sunt, de asemenea, predispuse să fie utilizate în scopuri nefaste, fie prin
aplicarea cu dublă utilizare a tehnologiilor, fie prin folosirea ilegală a datelor (Aicardi, 2018; Penney, McKune, Gill și Deibert, 2018).

Această dualitate ‒civilă și militară, benefică și agresivă‒ a utilizării tehnologiilor AI face necesară luarea în considerare a posibilității ca instrumentele
concepute spre bine să poată fi folosite ca arme și, prin urmare, reglementarea dezvoltării lor din această perspectivă.

Majoritatea tratatelor despre arta războiului sunt de acord cu Carl von Clausewitz că războiul este de natură politică. Scopul ei nu este atât distrugerea
adversarului, cât subordonarea voinței lor față de a noastră. Prin urmare, orice instrument care poate afecta libertatea oamenilor ar trebui, din punct de
vedere etic, să fie tratat ca o armă și să fie supus dreptului internațional umanitar (DIH).1 Libertatea nu ar trebui să fie mai puțin proeminentă în prioritățile
noastre decât viața însăși doar din cauza „... anxietate cu privire la pierderea controlului uman asupra sistemelor de arme și asupra

Adresa de e-mail: angel@angelgomezdeagreda.es.


1
Răposatul general-maior rus Ryabchuk a mers și mai departe, remarcând că „gândul este primul care se alătură luptei. Într-adevăr, gândul este o armă”. (VD
Ryabchuk), „Probleme ale științei militare și previziunii militare în condițiile unei confruntări intelectual-informaționale”, Gândirea militară, nr. 5 (2008), p. 67–76.

https://doi.org/10.1016/j.telpol.2020.101953 Primit 24
iunie 2019; Primit în formă revizuită 15 martie 2020; Acceptat la 16 martie 2020 Disponibil online la 31 martie
2020
0308-5961/© 2020 Elsevier Ltd. Toate drepturile rezervate.
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

folosirea forței…” (Comitetul Internațional al Crucii Roșii, 2018).


Posibilitatea armonizării instrumentelor digitale face ca este foarte relevant să se examineze modul în care sistemele de arme sunt tratate și dacă
reglementarea acestora ar trebui să fie aplicabilă tuturor sistemelor AI susceptibile de a fi utilizate astfel.
Ar avea puțin sens să se aplice standarde diferite sistemelor AI special adaptate pentru a nu respecta prima dintre Legile Roboticii lui Asimov și pentru
acele sisteme AI care vor îndeplini aceeași funcție, chiar dacă nu au fost construite în primul rând cu acest scop.

Progresele rapide ale acestor tehnologii fac imperativ și urgent să se acorde o analiză mai aprofundată a implicațiilor etice ale dezvoltării lor. Acest
lucru este mai ales adevărat și evident în aplicațiile robotice kinetic2, dar nu este mai puțin important pentru alte domenii în care utilizarea datelor
provenite de la sau furnizate oamenilor le-ar putea afecta procesul de luare a deciziilor.
Majoritatea codurilor de conduită și a principiilor cu scop general privind IA fie neglijează complet, fie acordă doar o atenție marginală acestor alte
utilizări ale tehnologiei. Această lucrare examinează douăzeci și patru dintre cele mai relevante și importante coduri de conduită pentru a le extrage
caracteristicile comune. Controlabilitatea și explicabilitatea se dovedesc a fi aspecte cheie care trebuie luate în considerare la proiectarea unui sistem AI.
Utilizările neintenționate și neprevăzute ale inteligenței artificiale sunt mult mai relevante decât indică prezența lor în majoritatea codurilor actuale.
Lucrarea examinează activitatea Grupului de experți guvernamentali al Națiunilor Unite (UN GGE) ca organism subsidiar al „Convenției privind
anumite arme care pot fi considerate a fi excesiv de vătămătoare sau a avea efecte nediscriminatorii” (CCW). Acest grup se întâlnește regulat la Geneva
pentru a se ocupa de etica și reglementarea utilizărilor militare ale inteligenței artificiale care implică sisteme de arme autonome letale (LAWS), denumite
uneori „roboți ucigași” (Horowitz, 2016) .
Nu există o definiție convenită a LEGILOR. Națiunile și instituțiile au emis o varietate de abordări definiționale (Institutul Națiunilor Unite pentru
Cercetare în Dezarmare, 2017). Cu toate acestea, toate includ utilizarea sistemelor robotizate cu un grad diferit de autonomie pentru a identifica, selecta
și angaja o țintă cu consecințe letale. Înțelegerea termenului „autonomie” și centralitatea letalității sunt încă o chestiune de dezbatere (Boddington, 2017).
În scopul acestei lucrări, LEGI se vor referi la orice sistem de arme care are capacitatea de a îndeplini acele funcții cu intervenție umană limitată.3

Publicarea recentă a „Recomandărilor privind utilizarea etică a IA de către Departamentul de Apărare” (Defense Innovation Board, 2019a) și
documentul său justificativ (Defense Innovation Board, 2019b) arată cât de oportune sunt studii ca acesta. Instituțiile de apărare și forțele armate sunt
actorii principali atât în dezvoltarea, cât și în utilizarea celor mai dificile versiuni de IA, iar gândurile și criteriile lor sunt, prin urmare, de o importanță
capitală în aceste chestiuni.
Această lucrare începe prin identificarea principiilor cheie prezente în majoritatea codurilor etice. Aceste principii sunt apoi folosite pentru a compara
diferitele coduri dintre ele și pentru a determina modul în care LEGILE sunt tratate în fiecare dintre ele. Sistemele de arme sunt, totuși, alcătuite dintr-un
set de tehnologii, fiecare dintre acestea putând avea o dublă utilizare (civil-militară) care trebuie luată în considerare. Este util, așadar, să examinăm
principiile etice discutate la CCW pentru a determina aplicabilitatea lor la restul sistemelor AI.

2. Principiile cheie ale codurilor etice

Această lucrare examinează situația actuală a codurilor etice privind IA, fie ele din mediul academic, instituții sau corporații.
Au fost selectate cele mai relevante și citate coduri, precum și cele mai recente. O comparație completă nu este prezentată în această lucrare și doar
rezultatele sunt extrase pentru a trage concluzii din acestea. O comparație mai detaliată este disponibilă în tabelul din Anexa A.

Această metodologie a fost utilizată anterior în alte lucrări relevante, fie în acest domeniu, fie în alte științe (Baura, 2006; Upshaw Downs & Swienton,
2012; Rothenberger, Fabian și Arunov, 2019). Cel mai recent și cel mai mare de până acum este studiul realizat de Academia Chineză de Științe și Centrul
China-Regatul Unit pentru Etică și Guvernare AI (China-UK Research Center for AI Ethics and Governance, 2018).

Șase dintre coduri au fost generate de sau pentru instituții oficiale.4 Un document relevant recent inclus, de asemenea, este cel emis de Defense
Innovation Board al Departamentului de Apărare al SUA (Defense Innovation Board, 2019a), care oferă

2
Armele cinetice sunt cele care folosesc energia cinetică conținută într-un obiect pentru a produce daune, spre deosebire de, de exemplu, armele
electromagnetice. Aplicațiile robotice cinetice sunt, așadar, cele care acționează fizic.
3
Lipsa unui sens stabilit face dificilă chiar și stabilirea termenilor de discutat (Ekelhof, 2017). Termenii și definițiile inteligenței în sine ca trăsătură
specifică umană (Muehlhauser & Helm, 2012) și valoarea autonomiei umane sunt încă în discuție. Această lucrare își propune să depășească considerațiile
geopolitice și să ofere argumente pentru cei care proiectează, dezvoltă și folosesc sisteme AI în general.
4
Raportul UNESCO al COMEST (Comisia mondială pentru etica cunoașterii și tehnologiei științifice) privind etica robotică, (COMEST, 2017), Agenția
pentru proiecte de cercetare avansată pentru apărare (DARPA) (Leys, 2018), Parlamentul UE (Comisia pentru afaceri juridice a Parlamentului European,
2016), Comisia UE (Craglia, 2018), Camera Lorzilor din Regatul Unit (Comitetul select pentru IA al Camerei Lorzilor, 2018) și Principiile OCDE privind IA
(OCDE, 2019b; 2019a).

2
Machine Translated by Google

� �

A. G� omez de Agreda
Politica de telecomunicații 44 (2020) 101953

perspectiva utilizatorului mai degrabă decât cea a dezvoltatorului. Următoarele unsprezece coduri provin din lumea academică și think-tank-uri.5 Restul
de patru au fost generate de industrie și dezvăluie atât standardele etice, cât și viziunea companiilor.6 Majoritatea codurilor au fost elaborate în ultimii
trei ani în națiuni sau corporații occidentale. Un studiu comparativ relevă un nivel ridicat de coerență între ele și un grad suficient de maturitate.7 Se
poate deduce un numitor comun care identifică conceptele cele mai recurente și sinonimele acestora. Corelația ridicată dintre autori și tendința de a trage
principii din codurile deja publicate se numără printre motivele acestei uniformități.8

Tabelul din Anexa A identifică principiile cheie care constituie acest numitor comun. Ele coincid în toate, cu excepția numelui, cu cele recunoscute de
Academia Chineză de Științe în studiul său mai larg asupra a aproape cincizeci de seturi de principii.9 Secțiunea 3 discută pe scurt aceste dimensiuni.

Doar un număr marginal dintre aceste coduri iau în considerare în mod explicit utilizarea dublă a IA. Câțiva dintre ei recunosc existența unor utilizări
non-pacifique, dar aleg să nu se ocupe de ele, chiar dacă cu greu pot fi disociate. Doar două coduri, IEEE (EAD2) și Raportul UNESCO al COMEST (Comisia
Mondială pentru Etica Cunoașterii și Tehnologiei Științifice), acordă o atenție aprofundată
LEGI.
Această lucrare continuă cu o scurtă discuție despre război și rolul tehnologiilor AI cu dublă utilizare în conflictele moderne. Natura politică a războiului
îl face o confruntare de voințe (Sun Tzu, Clausewitz). Conflictele hibride, în ceea ce armata numesc „zona gri”, folosesc tot felul de instrumente ca arme.

Următorul capitol trece în studiul lucrărilor și rapoartelor emise la Convenția ONU privind Anumite Arme în ultimii doi ani. Au fost revizuite și
documentele anterioare, dar nu încorporează diferențe semnificative față de cele citate aici.
Deși acesta nu este singurul forum în care armele autonome sunt discutate la nivel interguvernamental (OCDE, 2018), ONU CCW este considerată principala
referință atunci când vine vorba de LEGI, și cea mai incluzivă.10
Urmează o comparație a conceptelor cheie derivate din cele douăzeci și patru de coduri etice studiate și Principiile directoare propuse de CCW. Acest
lucru va permite determinarea punctelor comune dintre ambele seturi de principii și adecvarea acestora din urmă ca cod de etică de bază pentru toate IA.

Tehnologia asociată cu AI nu va dispărea. Este încorporat în realitatea noastră de zi cu zi până când devine omniprezent și adesea transparent sau
invizibil pentru utilizator. Inițiative care urmăresc eradicarea totală sau parțială a acesteia (Campaign to Stop Killer Robots, 2018) și cele care cer un
11 până
moratoriu asupra cercetării și dezvoltării sale (Republica Bolivariană din Venezuela, 2018)
când se dezvoltă o viziune de ansamblu asupra posibilelor sale efecte perverse, lipsa de fezabilitate. Societățile moderne nu sunt nici dispuse, nici în măsură
să renunțe la beneficiile derivate din implementarea lor (Belgia, Irlanda și Luxemburg, 2019; China, 2018). Prin urmare, o abordare realistă a consecințelor
dezvoltării acestor tehnologii trebuie să includă utilizările lor neintenționate.
Identificarea acestor efecte perverse este o condiție prealabilă. Acest lucru va ajuta la atenuarea acestora fără a împiedica implementarea celor pozitive.
De asemenea, va ajuta la deciderea modului în care sunt luați următorii pași. Fezabilitatea, nu numai din punct de vedere tehnic, ci și din punct de vedere
politic, trebuie să fie una dintre condițiile prealabile pentru ca orice cod etic sau juridic să fie elaborat (CCW, 2018). Nerespectarea intereselor politice și
economice va face fără îndoială orice propunere inaplicabilă.
Acest lucru duce la necesitatea stabilirii unor cerințe specifice pentru dezvoltarea tehnologiilor asociate cu inteligența artificială și păstrarea valorilor
umane în noul context mixt al inteligențelor bazate pe carbon și pe siliciu. În acest nou scenariu, dacă dorim să ne păstrăm valorile umane, vor fi necesare
noi instrumente și proceduri. Trebuie convenite noi coduri etice și legale.
Etica nu se aplică mașinilor, deoarece liberul arbitru este o condiție prealabilă pentru dezvoltarea standardelor etice. Valorile morale trebuie să ghideze

5
AI4People (Floridi et al., 2018), IEEE's Ethically Aligned Design (EAD2), Future of Life's Asilomar Principles, (Future of Life Institute, 2017), Forumul pentru dezvoltarea
social responsabilă a Declarației de la Montreal a inteligenței artificiale (Universitatea din Montreal, 2018), Principiile AI (Parteneriatul pentru IA, 2018), Principiile Roboticii
ale Consiliului de Cercetare în Inginerie și Științe Fizice (EPSRC) , (Boden și colab., 2010), Declarația Biocat de la Barcelona pentru dezvoltarea și utilizarea corectă a
Inteligența artificială în Europa (Barcelona Bar Association, 2019), Corectitudine, responsabilitate și transparență în învățarea automată (FAT/ML)0 s Principles for
Accountable Algorithms and a Social Impact Statement for Algorithm (Diakopoulos et al., 2018), UNI Global Union's Principii privind IA etică (UNI Global UNI, 2018), Codul
de etică și conduită profesională a Asociației pentru Mașini de Calculatoare (ACM) (ACM, 2018) și cel mai recent de către Academia de Inteligență Artificială din Beijing
(Academia AI din Beijing, 2019).

6
Google (Pichay, 2018), IBM (IBM, 2018), Microsoft (Microsoft, 2019) și DeepMind (DeepMind, 2017).
7
În plus, Pony Ma a lui Tencent a propus un cadru etic pentru IA cu patru principii distincte: disponibilitate, fiabilitate, înțelegere.
sibility and Controllability (ARCC), care imită practic alte coduri (http://www.linking-ai-principles.org/term/407).
8
La momentul redactării acestui articol, Forumul Economic Mondial (WEF) a creat șase consilii pentru a oferi îndrumare și guvernare a mai multor subiecte, inclusiv AI. Membrii Consiliului Global AI sunt,
de asemenea, figuri relevante care au luat deja parte la inițiative anterioare, iar principiile exprimate până acum sub auspiciile WEF nu diferă semnificativ de acestea. https://www.weforum.org/agenda/2019/05/

these-rules-could save-humanity-from-the-threat-of-rogue-ai/.

9
„Linking Artificial Intelligence Principles, Keywords and Topics”, Centrul de cercetare pentru inteligența inspirată de creier, Institutul de Automatizare, Academia
Chineză de Științe (http://bii.ia.ac.cn/); Academia de Inovare de Inteligență Artificială, Academia Chineză de Științe; Școala de Inteligență Artificială, Universitatea din
Academia Chineză de Științe; Centrul de Cercetare China-Regatul Unit pentru Etică și Guvernare AI (https://ai-ethics-and-governance. institute/), 2018–19. http://www.linking-
ai-principles.org/keywords.
10
NATO nu a elaborat niciun cod oficial de conduită privind orientările etice pentru LEGI. Pur și simplu recomandă să fiți atenți la necesitatea de a ajunge la definiții și
de a menține transparența pe parcursul negocierilor care vor urma. De asemenea, își exprimă îngrijorarea cu privire la „punerea deciziei de a lua o viață umană în mâinile
unei mașini” (Williams & Scharre, 2015).
11
Moțiune prezentată în numele Mișcării Nealiniate.

3
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

tehnologii în cercetările lor și pentru a ajuta factorii de decizie să reglementeze utilizarea posibilităților pe care IA le prezintă din înțelegerea lor mai
profundă a posibilităților și a consecințelor. Cu toate acestea, responsabilitatea revine în mare parte utilizatorilor care aleg să utilizeze tehnologia în
moduri imorale. Scopul este ca acestea să fie benefice pentru umanitate ca corp colectiv și pentru oameni în mod individual (și cât mai echitabil posibil).

Multe dintre cele mai recente studii privind efectele inteligenței artificiale pun sub semnul întrebării nu autonomia mașinilor, ci cea a oamenilor, care
le proiectează și le folosesc. Deși există o discuție în desfășurare cu privire la acordarea sau nu a drepturilor roboților (Gunkel, 2018; Tavani, 2018),
autonomia umană este cea care trebuie protejată (COMEST, 2017; Floridi și colab., 2018). Viziunea umanistă a dezvoltării tehnologice este instrumentală
atunci când vine vorba de construirea mediului social și politic care rezultă din utilizarea roboților.

3. Compararea codurilor de conduită

Ultimii ani au fost martorii publicării unui număr mare de coduri de principii etice privind IA. O examinare atentă a douăzeci și patru dintre ele (a se
vedea tabelul din Anexa A) ne permite să le reducem la un număr mai mic de principii care sunt cuprinse în marea majoritate a acestora într-un fel sau
altul:

3.1. Bunătatea

Prima idee care pare a fi prezentă în majoritatea codurilor menționate mai sus este cea de binefacere. Algoritmii trebuie să fie o forță spre bine, să
promoveze atât bunăstarea socială, cât și cea individuală. Cu toate acestea, interesele individuale și de grup pot să nu fie întotdeauna atât de strâns
aliniate pe cât sugerează aceste propuneri. Există drepturi conflictuale care trebuie echilibrate. Algoritmii menționați să fie beneficii social pot ajunge să
fie așa doar în detrimentul beneficiului anumitor indivizi.

3.2. Demnitate umană

Demnitatea umană este un termen controversat care joacă un rol central în majoritatea codurilor etice. Poate fi definită ca „recunoașterea faptului
că ființele umane posedă o valoare specială intrinsecă umanității lor și, ca atare, sunt demne de respect pur și simplu pentru că sunt ființe umane” ( Trinity
International University). Etica în ansamblu se învârte în jurul acestei idei. Toate celelalte principii au puțin sens fără a ține cont de drepturile individuale
și de diferența calitativă dintre oameni și restul.

3.3. Confidențialitate

Majoritatea codurilor etice propuse includ și confidențialitatea ca unul dintre principiile lor. Depășește cu mult scopul acestei lucrări de a explora
toate derivatele diferite ale acestui subiect. Probabil, confidențialitatea este baza pentru restul principiilor discutate aici. Dacă datele sunt elementul de
bază al luării deciziilor, atunci accesul la acele date și modul în care sunt stocate și procesate constituie preocuparea principală din care evoluează toate
celelalte. Acest lucru este valabil mai ales atunci când tehnologia actuală permite o înțelegere multidimensională a subiectului și nu doar o anumită parte
a acestuia. Cu toate acestea, publicul nu a dorit să-și păstreze datele (Potoglou, Patil, Gijon, Palacios și Feijoo, 2013), din cauza unei slabe înțelegeri a
implicațiilor.
Confidențialitatea este adesea asociată cu identitatea, anonimizarea și transparența. Confidențialitatea poate fi atât individuală, cât și legată de grup.
Stabilirea unei identități digitale univoce pentru persoane sau grupuri echivalează cu echivalentul digital cu editarea ADN-ului.

3.4. Autonomia umană

Autonomia umană, deja menționată mai sus, este abordată și în majoritatea codurilor. Dezbaterea se îndreaptă către întrebările cât de multă
autonomie rămâne oamenilor care se confruntă cu prezența tot mai mare a IA în societatea umană și modul în care mașinile autonome afectează
drepturile omului.
Garantarea faptului că oamenii își păstrează agenția ‒înțeleasă ca capacitatea, condiția sau starea de a acționa sau de a exercita puterea‒ se învârte
în jurul conceptului de libertate și gândire independentă. Controlul final asupra sistemului AI trebuie să rămână la operatorul uman în fiecare fază a
procesului de decizie. Cu toate acestea, chiar și atunci când oamenii păstrează controlul asupra mașinilor, alți algoritmi pot influența în continuare
alegerile operatorului, sub forma unor sisteme de asistență care oferă informații de bază pentru luarea deciziilor.
Acești asistenți sunt în același timp mult mai puțin capabili și totuși mai influenți în procesele noastre mentale decât le percep majoritatea oamenilor
(Dahlmann & Dickow, 2019), ceea ce duce la o încredere excesivă în deciziile lor (Logg et al., 2019).

3.5. Corectitudine

Justiția și corectitudinea sunt două concepte care apar mai ales în legătură cu deciziile imparțiale ale algoritmilor. Deciziile părtinitoare luate de

4
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

algoritmii sunt adesea rezultatul unui proiect sau al antrenamentului slab al mașinii. Prejudecățile societale sunt, de asemenea, introduse și făcute
invizibile atunci când sunt concepute numai pentru realizarea de profit. Apoi, societatea ajunge să suporte costurile asociate acestora (Benkler, 2019).
Algoritmii părtinși pot rezulta chiar și atunci când o cantitate foarte mare de date este introdusă în procesul de instruire (Dahlmann & Dickow, 2019, p.
13).12 Dacă mașinii i se arată date extrase din practicile sociale în care este încorporată o condiție discriminatorie, această discriminare va fi înțeleasă ca
legitimă și încorporată în înțelegerea sa asupra modelului.13.
Programarea rețelelor neuronale va necesita, de asemenea, o înțelegere profundă a modului în care funcționează. Simpla optimizare a rezultatelor va
oferi soluții excelente pentru rețea în general, în timp ce poate fi nedreaptă față de persoanele mai puțin favorizate. Provocarea este să-i înveți pe algoritmi
să-și echilibreze deciziile astfel încât să atingă obiectivele etice chiar și în detrimentul rezultatelor optime.
Echilibrarea eticii și profitului nu este un echilibru asupra căruia toți oamenii vor fi ușor de convenit.
Dezvoltarea de seturi de instrumente concepute pentru a atenua discriminarea și părtinirea în învățarea automată (cum ar fi AI Fairness 36014 sau
Aequitas15 de la IBM) indică singura soluție care ar putea asigura că optimizarea este realizată la viteza mașinii, în timp ce sunt de asemenea avute în
vedere corectitudinea și capacitatea de explicare: algoritmi testați de control algoritmi. Un proces lung de perfec ionare a acestor instrumente va fi
totu i necesar înainte ca acestea să poată ob ine rezultate acceptabile.

3.6. Explicabilitate

Denumită uneori explicabilitate, inteligibilitate sau chiar responsabilitate, explicabilitatea este de o importanță capitală pentru majoritatea
dezvoltatorilor de cod, ca mijloc necesar pentru a obține încrederea utilizatorilor (Newswise, 2013). Defense Advanced Research Projects Agency (DARPA)
a lansat un program privind IA explicabilă, care se străduiește să caute în interiorul cutiilor negre ale algoritmilor și urmărește controlul deplin asupra
deciziilor acestora (Gunning, 2017).
Încrederea în sine este unul dintre conceptele cheie strâns legate de explicabilitatea. Deși nu este atât de răspândită în codurile incluse în acest studiu,
se găsește frecvent în literatura de specialitate legată de IA. Comisia Europeană a publicat recent un raport privind orientările etice pentru o IA de
încredere (High-Level Expert Group on Artificial Intelligence, Comisia Europeană, 2019), subliniind importanța acestora.

Cu toate acestea, însuși conceptul de explicabilitate – și dacă ar trebui să se aplice sistemelor AI sau algoritmilor – este vag. Acest lucru este valabil mai
ales dacă dorim să stabilim o legătură între transparență și încredere, în care înțelegerea publică a tehnologiei de bază ar fi obligatorie (Buiten, 2019, pp.
1–19). Există multe tehnologii folosite în viața de zi cu zi ale căror funcționare interioară nu sunt înțelese în mod obișnuit și, totuși, sunt considerate sigure
pe baza presupunerii că cineva sau altcineva le ține cu ochiul.
GDPR (Regulamentul general privind protecția datelor) al UE explorează alte căi de aplicare a explicabilității. Acesta „oferă un „drept la explicație”
unic, cu implicații juridice majore” a cărui „adevărată putere derivă din efectele sale sinergice atunci când este combinată cu auditul algoritmic și
metodologiile de „protecție a datelor prin proiectare”” (Casey, Farhangi și Vogl, 2019 ) . În loc de un drept individual la explicații, GDPR taxează DPA-urilor
(Autoritățile de protecție a datelor) cu competențe de audit în toate fazele de dezvoltare și implementare algoritmică (Comisia Europeană, 2018).

3.7. LEGI în codurile de conduită

În afară de expresiile de îngrijorare și solicitările generice pentru interzicerea armelor autonome – sau a pozițiilor corporative (ca în Google (Pichay,
2018))–, doar IEEE și COMEST printre codurile etice care nu sunt dedicate în mod specific LEGILOR dezvoltă etica AI- sisteme de arme bazate mai departe.

În ceea ce privește LEGILE, Versiunea #2 a Proiectului Aliniat Etic subliniază „dimensiunile etice suplimentare” implicate în gestionarea sistemelor de
arme în comparație cu sistemele autonome care nu sunt concepute pentru a provoca vătămări. Controlul uman al sistemelor de arme și responsabilitatea
atât a dezvoltatorilor, cât și a operatorilor, pe de o parte, și predictibilitatea și explicabilitatea, pe de altă parte, sunt factorii diferențiați dintre aceste două
tipuri de sisteme autonome (IEEE, 2016) .
La rândul său, COMEST se angajează într-o discuție despre aspectele etice și juridice ale LEGILOR, în urma uneia similare privind dronele armate.
Acesta susține că armele complet autonome ar încălca DIH16, deoarece „le lipsesc principalele componente necesare pentru a asigura respectarea
principiilor distincției și proporționalității”. Prin urmare, recomandă ca controlul uman să fie păstrat în toate circumstanțele asupra acestor sisteme
(COMEST, 2017).

12
Cantitatea mare de date disponibile obligă „sistemele robotizate moderne să utilizeze fuziunea datelor senzorilor și filtrarea informațiilor”. „Dacă filtrele influențează
informațiile care ajung la operator sau comandant într-un asemenea mod, fără a fi controlate de oamenii înșiși, este îndoielnic dacă există un nivel semnificativ de control
și, prin urmare, dacă pot fi luate decizii atribuibile în teren.”
13
Algoritmul de citire a CV-ului Amazon, de exemplu, a confundat proporția de bărbați dintre cei mai buni performanți din companie ca un standard care trebuie imitat. Consultați https://www.reuters.com/article/us-amazon-com-jobs-

automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias against-women-idUSKCN1MK08G. https://aif360.mybluemix.net/. http://www.datasciencepublicpolicy.org/projects/aequitas/.

14

15

16
Alții, precum Ronald Arkin, cred că roboții s-ar putea dovedi mai „umani” în război și ar adera la DIH mai consecvent, deoarece nu ar fi supuși unor pasiuni precum
frica (Arkin, 2018). În opinia lui, o mașină ar fi mai bine să respecte regulile de angajare (RoE) decât soldații.
Argumentele contrare în acest sens includ incapacitatea tehnică a mașinilor de a identifica în mod pozitiv combatanții în medii complexe.

5
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

3.8. LEGI vs. reglementarea armelor neletale

Războiul este definit ca un concurs de voințe.17 În măsura în care obține efectele dorite în îndoirea hotărârii adversarului, orice poate fi considerat o
armă. Războiul în secolul 21 se poartă în popor. Devenim câmpul de luptă, precum și armă și victimă. Războiul nu vizează nici măcar gândurile oamenilor,
ci sentimentele și sentimentele lor. Nu trebuie să afecteze realitatea, ci doar percepțiile.

Algoritmii sunt folosiți din ce în ce mai des pentru a produce aceleași efecte ca și armele cinetice tradiționale. Ele vin cu un bonus de negare,
ubicuitate, imediate și, cel mai bine, curățenie. Responsabilitatea este greu de atribuit și percepțiile sunt îndoite pentru a-și justifica efectele.

Algoritmii sunt folosiți și în LEGI. Așa-numiții „roboți ucigași” cu diferite grade de autonomie sunt deja în serviciu într-un număr de forțe armate de pe
tot globul. Deoarece acestea se încadrează în categoria armelor cinetice, ele sunt percepute ca fiind un pericol clar și prezent și, prin urmare, tind să fie
examinate. Cele mai multe dintre ele, până acum, vizează doar obiective non-umane.
Deși CCW a Națiunilor Unite a lucrat la definirea și reglementarea acestora din 2013, există încă puțin consens cu privire la ceea ce implică LEGI.
Departamentul de Apărare al Statelor Unite a emis una dintre primele declarații (Departamentul de Apărare al SUA, 2012), dar majoritatea națiunilor și
instituțiilor au introdus și propria lor versiune (Institutul Națiunilor Unite pentru Cercetare a Dezarmarii, 2017), făcând aproape imposibil să ajungeți la
un acord asupra o înțelegere comună a chestiunii care trebuie reglementată.
Sistemele AI pot fi asociate cu hardware-ul și devin astfel creierul mașinilor robotizate (LEGE). Ele pot rămâne, de asemenea, în domeniul software-
ului (ca chatbot) sau pot fi puse în relație directă cu inteligența biologică (interfața creier-computer, BCI). Toate cele trei forme de IA au fost deja prezente
în societatea noastră în ultimii ani. Cu toate acestea, oamenii tind să fie mai conștienți de acțiunile efectuate de cei dintâi, minimizând în același timp
influența celorlalți doi.18 Dincolo de roboții autonomi letali, formele blânde de IA
reprezintă o amenințare reală în spațiul cibernetic (Scharre, 2019). Dacă o parte din ce în ce mai mare a vieții noastre are loc în spațiul cibernetic,
trebuie stabilit un sistem de precauție echivalent cu cel fizic pentru algoritmi. O serie de scenarii sunt imaginabile cu privire la amenințările introduse de
IA, fie ele în securitatea fizică, digitală sau politică (Brundage et al., 2018).19 Deși aceste instrumente nu ar fi capabile să provoace vătămări fizice, ele ar
avea
potențialul de a afecta percep ii, devenire
amenință viața utilizatorului sau permițând elaborarea unei narațiuni în jurul acestor presupuneri false.
Alte efecte non-fizice ar putea fi, de asemenea, puse la dispoziția actorilor ostili sau ilegali prin tehnologii cu dublă utilizare. Orice, de la securitate
cibernetică până la campanii de informare și dezinformare, va deveni obișnuit în momentul în care instrumentele de implementare a acestora vor fi
disponibile ca produse standard (Brundage et al., 2018).

4. AI cu dublă utilizare

Spre deosebire de alte tehnologii, aspectul sistemelor de inteligență artificială utilizate ca arme este greu de distins de cel conceput pentru utilizări
benefice de zi cu zi. În termeni practici, toate tehnologiile asociate cu inteligența artificială au o dublă utilitate, pentru utilizări civile și militare. „Deși pot
servi unor obiective societale legitime în unele cazuri, ele sunt, de asemenea, folosite pentru a submina drepturile omului, cum ar fi libertatea de
exprimare și viața privată” (Penney et al., 2018).
Prin urmare, factorii de decizie trebuie să aibă o grijă deosebită atunci când reglementează dezvoltarea acestor tehnologii. Accentul trebuie să se
pună mai degrabă pe controlabilitatea algoritmilor decât pe o intenție mai puțin realistă de a asigura exclusivitatea utilizării lor de către actorii aprobați
(Comisia Europeană, 2015b). Există un cost de oportunitate – atât economic, cât și social – pentru încetinirea disponibilității acestor sisteme. Puțini ar
înțelege dacă exoscheletele care ar permite unei persoane cu dizabilități să-și recapete o oarecare libertate de mișcare nu ar fi puse la dispoziție de
îndată ce ar putea fi utilizate în siguranță în scopul propus. Aceeași tehnologie, totuși, ar putea fi folosită pentru a îmbunătăți capacitățile soldaților pe
câmpul de luptă.
Atât această goană comercială, cât și avantajul militar pe care îl vor aduce astfel de sisteme atunci când sunt „armate” garantează că vor fi
implementate și apoi utilizate în scopuri ostile sau ilegale – și utilizate în timp ce sunt încă imature.20 Ca și în cazul multor alte exemple de evoluții
tehnologice de-a lungul istoriei , războiul oferă cea mai bună scuză pentru a implementa invenții recent introduse care trebuie încă testate în continuare
pentru uz civil. Avioanele care au fost aduse în grabă în serviciu în Primul Război Mondial sunt un bun exemplu.
Concurența strânsă între companiile comerciale în comercializarea produselor și lipsa de conștientizare a designerilor acestora cu privire la acest
potențial dublă utilizare împiedică implementarea măsurilor de securitate în proiectarea sistemelor de inteligență artificială, așa cum sunt acestea.

17
„Războiul este, prin urmare, un act de violență care să-l oblige pe adversarul nostru să ne împlinească voința.” Carl Von Clausewitz, „Despre război”.
18
Unele studii arată că opinia publică cu privire la utilizarea LEGILOR este predispusă să se schimbe în funcție de utilizarea specifică a acestor arme și că acceptarea acestora ar putea să
urmeze intrarea lor efectivă în funcțiune. Spre deosebire de ceea ce ar putea fi intuitiv, nu există o opoziție frontală față de ideea de arme autonome sau, cel puțin, această opoziție nu poate fi
considerată un concept universal (Horowitz, 2016).
19
Brundage i colab. descrie câteva scenarii în diferite domenii. Unele dintre ele se întâmplă de fapt astăzi într-o anumită măsură. În domeniul securității digitale, ele prezintă amenințări
care decurg din: automatizarea atacurilor de inginerie socială, a sarcinilor de serviciu în infracțiunile cibernetice penale, a descoperirii vulnerabilităților și a hacking-ului; refuzul de serviciu
asemănător omului; automatizare; prioritizarea țintelor pentru atacurile cibernetice utilizând învățarea automată și exploatarea IA utilizată în aplicații. O abordare similară urmează în
domeniul fizic și politic.
20
Comitetul Camerei Lorzilor din Marea Britanie pentru IA recomandă „că universitățile și consiliile de cercetare care oferă granturi și finanțare cercetătorilor în domeniul inteligenței
artificiale trebuie să insiste ca cererile pentru astfel de bani să demonstreze cunoașterea implicațiilor cercetării și a modului în care acestea ar putea fi utilizate greșit și să includă detalii. a
măsurilor care vor fi luate pentru a preveni o astfel de utilizare abuzivă, înainte de acordarea oricărei finanțări.” (Comisia selectată pentru IA a Camerei Lorzilor, 2018).

6
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

din ce în ce mai mult privită ca o resursă strategică (Fischer & Wenger, 2019). „Potențialul ca cercetarea AI bine-intenționată să fie folosită de către alții
pentru a provoca vătămări este semnificativ” (Select Committee on AI of House of Lords, 2018).
Prin comparație, armele nucleare și tehnologia lor asociată pentru generarea de energie sunt percepute ca periculoase și, prin urmare, sunt strict
reglementate. Activele necesare dezvoltării lor și infrastructura indiscretă necesară pentru asamblarea armelor nucleare fac din ele o chestiune de
negociere exclusiv între state. Posibilitatea unei aplicări directe a tehnologiilor IA la sistemele de arme sau, pur și simplu, la slăbirea agenției și autonomiei
oamenilor este mult mai puțin evidentă și, prin urmare, rar luată în considerare (Boulanin, 2018). Atât costul de dezvoltare, cât și costul perceput asociat
cu utilizarea abuzivă a armelor digitale sunt mult mai mici, fie și doar pentru că o astfel de utilizare greșită nu este la fel de evidentă.

Spre deosebire de războiul electronic, care se bazează aproape exclusiv pe echipamente realizate la comandă în scopuri de apărare, având în vedere
lipsa unui ROI (rentabilitatea investiției) din partea civilă, majoritatea modelelor de IA sunt fie concepute pentru uz civil, fie își găsesc drumul în piața civilă
în stadiile incipiente (Edwards, Natalucci, Oberlin și Tigkos, 2019). Cel mai descurajator este faptul că aceste aplicații sunt uneori dezvoltate pentru
industria divertismentului și nu în scopuri benefice. Exemplele includ roiuri de drone cor eografate de un algoritm – ca echivalent cu artificiile – cu puțin
sau deloc luarea în considerare a potențialului lor de acțiune militară.
Soluțiile interne sunt rareori folosite de majoritatea armatelor. În majoritatea națiunilor, cercetarea și dezvoltarea de ultimă generație a echipamentelor
militare au fost transferate de la forțele armate către universități și corporații civile. Constrângerile de timp și buget duc la încorporarea produselor COTS
(comercial off-the-shelf) în echipamentele militare, cu puțin timp sau interes acordat implementării unui strat suplimentar de siguranță.

Drept urmare, asistăm la tehnologiile AI care au fost concepute inițial pentru utilizări civile pașnice, fiind aplicate sistemelor de arme, spre marea
preocupare a multor oameni de știință care au ajutat în primul rând la dezvoltarea lor. Aceste tehnologii comerciale sunt adesea fie foarte ușor de utilizat,
fie pur și simplu plug-and-play. Acest lucru permite ca sistemele dezvoltate în jurul lor să fie utilizate de actori nestatali, cum ar fi grupurile teroriste cu
puțină sau deloc pregătire.
Conceptul de „cercetare cu dublă utilizare” (DURC) aplicat de Human Brain Project cercetării în neuroștiință are un potențial foarte bun de a fi transpus
în cercetare și dezvoltare IA (Aicardi et al., 2018, pp. 1–21 ) . Studiul oferă câteva exemple de tehnologii care ar putea fi utilizate de armate.

Însăși existența tehnologiilor reprezintă, de asemenea, un potențial semnificativ de utilizare abuzivă de către actori nestatali (Chertoff, 2018). Chiar
dacă statele s-ar abține să le folosească, grupurile teroriste nu ar fi descurajate sau constrânse de considerente etice. Prin urmare, trebuie găsite și
implementate soluții tehnice pentru a refuza utilizarea lor greșită sau pentru a o face atât de dificilă încât acestor organizații să li se refuze efectiv utilizarea.

Algoritmii cu dublă utilizare le permit actorilor nestatali să desfășoare activități ofensive care nu erau la îndemâna lor. Persoanele slab calificate ar
putea fi capabile să vizeze adversarii cu tehnologii mult peste expertiza lor. În acest context sunt imaginabile mai multe scenarii. Roiurile controlate de AI,
de exemplu, ar putea fi folosite într-un mod autonom chiar și în medii protejate electronic în care comunicațiile la distanță nu sunt posibile. Terori tilor –
dar i actorilor de stat – le va fi mai pu in dificil din punct de vedere psihologic să comită aceste acte atunci când sunt deta a i fizic i emo ional de
ac iune (Brundage et al., 2018).
Această dualitate de utilizare implică faptul că tehnologiile sunt, în cea mai mare parte, neutre din punct de vedere etic. Modul în care fiecare actor le
folosește va avea conotații etice sau legale. Prin urmare, etica ar trebui să vizeze utilizatorii și nu mașinile. Scopul nu este de a proiecta și de a construi
algoritmi etici, ci de a preveni utilizările neintenționate ale sistemelor în care sunt încorporați (Comisia Europeană, 2015a). Preocupările etice ar trebui să
fie prezente în toate fazele de dezvoltare, cu o mentalitate în cel mai rău caz.
Democratizarea unui astfel de instrument/arme puternică trebuie să vină cu capacitatea de a asigura utilizarea responsabilă a acestor tehnologii.
Defectele de proiectare, lipsa mecanismelor de siguranță și intenția ilicită intenționată sunt cauze posibile ale consecințelor neintenționate. Dacă
responsabilitatea trebuie să fie împărțită între factorii de decizie, proiectanți, producători și operatori, agenția asupra acțiunilor algoritmilor ar trebui, de
asemenea, împărtășită. Întrerupătoarele de oprire sau mecanisme similare ar trebui să fie disponibile pentru ca oricare dintre ele să încheie un proces
dacă este necesar.
Într-un ecosistem creat de om, tehnologiile cu dublă utilizare concepute și dezvoltate având în vedere utilizarea comercială civilă devin nu numai
instrumentele, ci și domeniul pe care luptă militarii. Ca și în spațiul cibernetic, asta înseamnă că câmpul de luptă nu mai este un scenariu segregat. Vor
exista în continuare câteva rețele, tactici, tehnici și proceduri dedicate, dar, în cea mai mare parte, militarii nu vor deține câmpul de luptă, vectorii
(instrumentele folosite pentru a livra sarcina utilă) sau nici măcar datele pe care le folosesc.

5. Principii directoare în lumina propunerii codului etic al CCW

Deliberările CCW ale Națiunilor Unite, dincolo de inevitabila disidență dintre puteri, industrii și ideologii politice, au ajuns la un acord asupra unui set
provizoriu de principii directoare (Tabelul 1). Concluziile lor sunt foarte în concordanță cu principiile cuprinse în codurile etice „civile”. Acest forum este
singurul loc în care statele și actorii nestatali discută oficial aceste subiecte.

Unele dintre principiile directoare prezente în acele coduri etice „civile” sunt totuși greu de reconciliat cu mașinile
concepute pentru a provoca vătămări:

5.1. Bineficiență/binefață relativă

De obicei, primul și cel mai comun concept prezent în codurile etice de uz general, binefacerea nu este, fără îndoială, aplicabilă sistemelor concepute
pentru a provoca rău. Totuși, mai multe state susțin în documentele prezentate la Geneva că, deși situațiile de pe câmpul de luptă sunt violente, algoritmii
vor fi mai buni în a le discrimina și, prin urmare, vor minimiza numărul victimelor nedorite,

7
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

Tabelul
1 Propunerea CCW de principii directoare. De autor, pe baza (CCW, 2018).

Principii directoare CCW

1. DIH continuă să se aplice pe deplin tuturor sistemelor de arme, inclusiv dezvoltării potențiale și utilizării sistemelor de arme autonome letale.
2. Responsabilitatea umană pentru deciziile privind utilizarea sistemelor de arme trebuie păstrată, deoarece responsabilitatea nu poate fi transferată la mașini.
Acest lucru ar trebui luat în considerare pe parcursul întregului ciclu de viață al sistemului de arme.
3. Responsabilitatea pentru dezvoltarea, desfășurarea și utilizarea oricărui sistem de arme emergente în cadrul CCW trebuie să fie asigurată în
în conformitate cu dreptul internațional aplicabil, inclusiv prin operarea unor astfel de sisteme în cadrul unui lanț responsabil de comandă și control uman.

4. În conformitate cu obligațiile statului în temeiul dreptului internațional, în studierea dezvoltării, achiziționării sau adoptării unei noi arme, mijloace sau metode de
război, trebuie să se stabilească dacă folosirea acesteia ar fi interzisă, în unele sau în toate împrejurările, de către internaționale. lege.
5. Atunci când se dezvoltă sau se achiziționează noi sisteme de arme bazate pe tehnologii emergente în domeniul LEGILOR, securitatea fizică, garanțiile non-fizice
adecvate (inclusiv securitatea cibernetică împotriva hackingului sau falsificarea datelor), riscul achiziției de către grupuri teroriste și riscul proliferării ar trebui
luat în considerare.
6. Evaluările riscurilor și măsurile de atenuare ar trebui să facă parte din ciclul de proiectare, dezvoltare, testare și implementare a tehnologiilor emergente
în orice sistem de arme.
7. Ar trebui să se acorde atenție utilizării tehnologiilor emergente în domeniul LEGI pentru a susține conformitatea cu DIH și alte obligații legale internaționale
aplicabile.
8. În elaborarea unor potențiale măsuri de politică, tehnologiile emergente din domeniul LEGI nu ar trebui să fie antropomorfizate.
9. Discuțiile și orice potențiale măsuri de politică luate în contextul CCW nu ar trebui să împiedice progresul sau accesul la utilizările pașnice ale
tehnologii autonome inteligente.
10. CCW (…) urmărește să găsească un echilibru între necesitatea militară și considerațiile umanitare.

respectând astfel DIH (Statele Unite ale Americii, 2018). Este deci o relativă binefacere care se prezintă în cazul LEGILOR.
Motivul din spatele acestui argument este că mașinile nu obosesc și nici nu sunt influențate de mediu. Conform acestei linii de gândire, algoritmii
sunt mult mai buni pentru a determina cine sau ce este o țintă legitimă și pentru a minimiza daunele colaterale. Cantitatea de date pe care o pot procesa
fiind mai mare, ar trebui să poată ajunge la concluzii mai precise și mai puțin părtinitoare. Constrângerile de timp ar fi, de asemenea, limitate cu o
capacitate de calcul mai rapidă.
Lipsa de predictibilitate a unei mașini este atenuată de faptul că procesul gândirii umane nu este mai puțin obscur și imprevizibil (McGrath & Gupta,
2018). Procesul uman de luare a deciziilor este mai puțin rațional decât se presupune în mod obișnuit. Această abordare a fost totuși contestată în mod
repetat de CICR (Comitetul Internațional al Crucii Roșii, 2018). Distribuția sarcinilor de lucru între mai multe sisteme AI – dintre care unul ar putea obține
sau corela informații, altul ar lua decizia și totuși o treime ar putea-o executa – poate estompa și mai mult responsabilitatea.

Majoritatea discuțiilor care au loc în prezent la CCW se referă la definiții și detalii minore care probabil vor rămâne nerezolvate pentru ceva timp
(Dahlmann & Dickow, 2019). Unii actori cer ca deciziile să fie înghețate până când se ajunge la un consens (Federația Rusă, 2018). Aceste probleme nu
diminuează însă validitatea și consensul în jurul principiilor propuse.

Experții de frunte în acest domeniu susțin o abordare mai puțin ambițioasă în care capabilitățile de nișă – precum țintirea umană – sunt interzise, în
loc de o interdicție nerealistă a armelor inteligente. În timp ce limitarea autonomiei algoritmilor în aceste cazuri ar împiedica mașinile să interacționeze
direct cu oamenii, dacă restul procesului de direcționare este lăsat neatins în mâinile sistemului AI, operatorul uman ar putea rămâne cu prea puține
opțiuni sau poate fi limitat la un Decizie Go/Nu-Go. Aceste arme ar putea escalada conflictul înainte ca intervenția umană să fie posibilă (Scharre, 2018,
pp. 23–27).
Prin urmare, principiul, văzut din perspectiva CCW, ar putea foarte bine să fie transformat în „beneficiu relativ” prin compararea rezultatelor umane
și ale mașinii. Acest lucru ar putea fi aplicabil și altor sisteme AI, cum ar fi conducerea autonomă, și să permită desfășurarea de vehicule complet
autonome, pe baza faptului că acestea prezintă statistici mai bune privind victimele. Dar, în timp ce mai puține victime ar putea rezulta din această linie
de acțiune, deciziile ar fi luate de alți agenți decât oamenii. Acest gând este esențial pentru toate discuțiile și strâns legat de demnitatea umană.

5.2. Demnitate umană

Oamenii se consideră deosebit de demni și merită un tratament preferențial. Indiferent dacă această calitate derivă dintr-un mandat divin sau dintr-
o realizare de sine, cu toții respingem ideea că o viață umană este luată de cineva sau ceva care nu este uman. Ne vedem superiori altor ființe.

Prin transferarea agenției către mașini, oamenii devin simple ținte, date, obiective și obiecte. Privați de putere, oamenii își pierd demnitatea și stima
de sine. Acest lucru, din nou, este aplicabil atât pentru LEGI, cât și pentru utilizările civile ale sistemelor AI. Se aplică atât deciziilor despre cum să trăiești
(libertate), cât și cine trebuie să moară (cine/ce ia decizia).
A permite mașinilor care se conduc singure să decidă dacă vor ucide singure pasagerii sau trecătorii (ca în „problema căruciorului” (Thomson, 1984))
este, în această privință, echivalent cu a lăsa o dronă autonomă să angajeze o țintă bazată pe algoritmi preprogramați sau , mai rau

8
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

totusi, pe cei autoinstruiti. Însăși ideea de soartă inevitabil bazată pe decizii alb-negru este respingătoare pentru gândurile noastre. Acest lucru este arătat în mod clar în experimentul
Moral Machine al MIT,21 în care ajungem să luăm decizii bazate pe scenarii reale pe care le găsește un vehicul autonom. Deși această decizie este de obicei simplă, inversarea
metodei și aplicarea algoritmului rezultat în diferite situații introduce un sentiment de disconfort.

Ar trebui să considerăm că este mai puțin o încălcare a demnității umane să le permitem algoritmilor să decidă pe cine să ucidă decât să filtreze datele pe care le accesăm și,
prin urmare, să ne distorsioneze percepția asupra realității și libertatea noastră de a alege? Dacă libertatea și puterea stă la baza demnității umane, atunci este de imaginat ca etica
din LEGI să se extindă și asupra activităților neletale dacă acestea ne afectează demnitatea.

5.3. Corectitudine

În timp ce nediscriminarea este cea mai relevantă în codurile de orientare civilă, respectarea DIH în ceea ce privește principiile precauției, distincției și proporționalității trebuie

să fie prioritară față de îndeplinirea strictă a obiectivelor misiunii din codurile militare.
Documentul de poziție al Chinei la reuniunea CCW din aprilie 2018 a recunoscut dificultățile LEGILOR în a respecta aceste principii și în a stabili responsabilitatea (China, 2018).

Încercările de a folosi tratatele privind armele nucleare ca model22 sunt probabil să eșueze, deoarece LEGIILE sunt mult mai accesibile actorilor statali și nestatali decât armele
NBC.23 În timp ce armele nucleare necesită resurse care sunt de obicei doar la îndemâna unui stat, LEGIILE sunt relativ instrumente ieftine. „democratizarea” lor implică necesitatea
unui nou model de guvernare.
Exemplul alternativ propus este, în mod paradoxal, cel al unei arme cu tehnologie relativ scăzută: minele antitermale, care, odată însămânțate, rămân în afara controlului
ulterioară de către proprietar (Gubrud, 2018). Deși comportamentul minelor este ușor de prezis, rămâne nevoia de a păstra controlul asupra acestora, fie din punct de vedere
geografic, fie din punct de vedere al posibilității de a le dezactiva odată ce acestea nu își mai îndeplinesc rolul propus.

5.4. Control uman semnificativ

Controlul este cel mai proeminent principiu din toate codurile etice. Totuși, condițiile care trebuie îndeplinite pentru a obține „un control uman semnificativ” sunt, de asemenea,
subiect de dezbatere. Chiar și atunci când sunt explicate în detaliu ‒ca în cazul Comitetului Internațional pentru Controlul Armelor Robotilor (ICRAC)‒ mecanismele precise pentru a
realiza un astfel de control rămân evazive (Sharkey, 2018).24 Pentru a evita această dezbatere, alții recomandă ca discuția să se concentreze pe rezultatul mai degrabă decât procesul
(Lewis, 2018, pp. 1–23). Prezența unui om în sau pe buclă este, prin urmare, obligatorie pentru a se asigura că procesul nu exclude rezultatul.

În cele din urmă, o propunere comună din Austria, Brazilia și Chile propune ca un instrument obligatoriu din punct de vedere juridic să asigure un control uman semnificativ
asupra, cel puțin, funcțiilor critice din LEGI (Austria, Brazilia și Chile, 2018). Cel mai adesea, aceste propuneri sfătuiesc că oamenii ar trebui să fie cei care „trăgează declanșatorul”,
fiind în același timp mult mai permisivi cu procesul de luare a deciziilor. În opinia mea, acest lucru plasează responsabilitatea unui trăgător de obicei prost informat, care nu va avea
de ales decât să aibă încredere în algoritmii care au selectat ținta.
Tabelul 2 oferă o comparație a diferitelor interpretări ale „controlului uman semnificativ”. Toate gravitează în jurul ideii de abilitate a operatorilor de a înțelege tehnologia și de
a interveni, în cazul în care rezultatul nu este aliniat cu cel urmărit. Această înțelegere implică necesitatea ca operatorul să cunoască contextul și să fie pregătit să încorporeze
informațiile furnizate de algoritmi. Prin urmare, controlul uman semnificativ susține utilizarea AI într-un rol de sprijin, automatizarea proceselor, dar ținând umanul la curent la
fiecare pas.

În clasificarea propusă în Tabelul 3, Parasuraman, Sheridan și Wickens (2000) prezintă nivelurile descrescătoare de automatizare a deciziei și acțiunii. După cum sa discutat mai
sus, deciziile luate de algoritmi ar putea împiedica operatorul chiar să ia în considerare unele opțiuni, condiționându-și astfel agenția oriunde de la nivelul 3.

Noel Sharkey (Sharkey, 2018) reduce lista la 5 niveluri (Tabelul 4), considerând că nivelul 3 și mai departe este inacceptabil din aceleași motive. Selectarea țintei de către algoritm,
chiar și atunci când decizia de a lovi sau nu este luată de operator, condi ionează în mare măsură înțelegerea acestuia asupra întregii imagini și capacitatea de a lua o decizie
informată. Nivelul 4, de exemplu, limitează intervenția umană pentru aprobare la o anumită perioadă de timp. Aceste ultime două opțiuni ar fi deschise doar în scenarii limitate în
care toate țintele sunt legitime și singurul scop este prioritizarea angajamentului.

Astfel de scenarii pot include operațiuni în spațiul cosmic, război submarin de adâncime sau protecția persoanelor critice.

21
http://moralmachine.mit.edu/.
22
arikov, totu i, propune Tratatul antirachete balistice (ABM) ca un posibil model (Sharikov, 2019).
23
NBC - arme nucleare, biologice sau chimice. În ciuda diferențelor cu armele nucleare, există cei care cred că efectul de descurajare al armelor nerechemabile ar putea
fi comparabil cu MAD (Distrugere reciprocă asigurată), care a ajutat la prevenirea utilizării armelor atomice în timpul Războiului Rece. În plus cu beneficiile tactice evidente
ale acestor tehnologii, LEGIILE ar putea deveni inevitabile (Straub, 2016).

24
Potrivit ICRAC: Condiții necesare pentru un control uman semnificativ al armelor. Un comandant sau operator ar trebui: 1. să aibă o conștientizare completă a
contextului și a situației zonei țintă în momentul inițierii unui anumit atac; 2. să poată percepe și să reacționeze la orice schimbare sau situații neprevăzute care ar fi putut
apărea de la planificarea atacului, cum ar fi schimbări în legitimitatea țintelor; 3. au o participare cognitivă activă la atac; 4. să aibă timp suficient pentru a delibera natura
țintelor, semnificația acestora în ceea ce privește necesitatea și caracterul adecvat al unui atac și posibilele efecte accidentale și posibile ale atacului; și 5. să aibă un mijloc
pentru suspendarea rapidă sau avortul atacului (Asaro, 2019; Sharkey, 2018).

9
Machine Translated by Google

10195
(2020)
teleco
Politic Agre
Go
deA.
Tabelul 2

O comparație a diferitelor criterii cu privire la semnificația „controlului uman semnificativ”. De autor, pe baza (Ekelhof, 2018). CNAS (Centrul pentru o nouă securitate americană), articolul 36 Geneva Conv.

44
(Articolul 36 din Protocolul adițional din 1977 la Convențiile de la Geneva din 1949), ICRAC (Comitetul internațional pentru controlul armelor robotizate) și ICRC (Comitetul internațional al Crucii Roșii).

de
CNAS Articolul 36 Geneva Conv. ICRAC CICR

Uman Decizii conștiente informate Judecata și acțiunea umană în timp util Participarea cognitivă. Percepe și reacționează Intervenția umană în toate etapele
participare
Informații Informații suficiente despre armă, țintă și context Informații exacte despre tehnologie, obiectiv Natura țintei și daune colaterale. Conștientizarea completă a Informații despre sistemul de arme și context
necesare Designul armei Armă și context Tehnologie contextului și a situației Previzibilitate și

testată. previzibilă, fiabilă și transparentă. Suspendarea/avortul atacului. fiabilitate.


Oameni instruiți

Cerințe legale Suficiente informații pentru a asigura legalitatea Responsabilitate la un anumit standard. Necesitatea și oportunitatea atacului. Respectarea DIH Responsabilitatea și respectarea DIH
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

Tabelul
3 Un model pentru tipurile și nivelurile de interacțiune umană cu automatizarea. Compilat de autor,
pe baza (Parasuraman et al., 2000).

1 Omul ia toate deciziile și acțiunile

2 Computerul oferă alternative, omul decide și execută


3 Computerul restrânge alternativele, omul decide asupra celor disponibile
4 Computerul oferă o alternativă, omul aprobă și execută
5 Computerul oferă o alternativă, omul aprobă, computerul execută
6 Computerul decide și execută, omul are timp limitat pentru a se opune
7 Computerul execută și informează umanul
8 Computerul execută și informează omul la cerere (pull)
9 Computerul execută și informează omul dacă decide (împinge)
10 Computerul decide, execută și ignoră oamenii

Tabelul
4 Nivelurile controlului uman și modul în care acestea influențează luarea deciziilor umane. De autor, pe baza (Sharkey, 2018).

IDENTIFICARE SELEC IE APROBARE ATAC

1 Uman Uman Uman LEGI


2 LEGI Uman Uman LEGI
3 LEGI LEGI Uman LEGI
4 LEGI LEGI uman (timp) LEGI
5 LEGI LEGI LEGI LEGI

infrastructură într-un anumit perimetru. Scenariile nu trebuie neapărat să fie geografice; viteza țintei, compoziția sa chimică și alți factori pot exclude foarte bine că
viețile umane sunt în pericol. În ambele tipuri de scenarii, geografice și de altă natură, autonomia de nivel cinci ar putea fi permisă și chiar recomandabilă, deoarece
întârzierile ulterioare introduse de acțiunea umană ar putea pune oamenii în pericol la capătul apărării.

Totuși, autonomia umană este relevantă în dezbaterea etică. Beneficiul, demnitatea umană și justiția sunt asociate cu controlul asupra mașinilor. Agentia este un
bun rival de care se poate bucura doar un singur agent, astfel incat transferul deciziilor catre algoritmi priveaza oamenii de capacitatea lor de a exercita o astfel de
agentie. Cheia constă în definirea granițelor dintre „asistență la decizie” și „condiționarea narațiunii”.

Confidențialitatea și explicabilitatea sunt, de asemenea, idei strâns legate. Inteligența artificială ar trebui să ne permită să înțelegem cum funcționează mașinile și
modul în care iau decizii, salvând în același timp confidențialitatea umană. Transparența ar trebui să se aplice algoritmilor, în timp ce oamenii își păstrează proprietatea
asupra datelor lor; adică transformarea mașinilor în instrumente suficient de transparente evitând în același timp transparența utilizatorilor.
Prin urmare, codurile de conduită vizează înțelegerea algoritmilor (explicabilitatea) și capacitatea de a-i controla. Oamenii trebuie să-și păstreze atât puterea, cât și
responsabilitatea (agenție) (Boulanin, 2018). Scopul AI ar trebui să fie ca acesta să fie benefic pentru oameni individuali (demnitatea umană și confidențialitatea), oferind
în același timp instrumentele de guvernare pentru societăți (echitate), dar nu în detrimentul indivizilor.

6. Discuție și concluzie

Inteligența artificială oferă beneficii neîndoielnice omenirii, a căror dezvoltare nu ar trebui să fie periclitată de necesitatea introducerii securității
măsuri care atenuează riscurile asociate cu desfășurarea acestuia.
Printre aceste amenințări, utilizarea duală a acestor tehnologii ocupă un loc proeminent. Posibilitatea ca aceste sisteme să fie utilizate de către state sau actori
nestatali în scopuri contrare legislației naționale sau DIH trebuie luată în considerare în proiectarea, dezvoltarea și utilizarea lor, dar nu ar trebui să le împiedice.

Autonomia, nu letalitatea, este factorul cheie care afectează demnitatea umană. Orice grad de autonomie nesupravegheată pentru mașini are loc la
cheltuiala autonomiei, libertății și puterii umane.
Algoritmii care condiționează libertatea, deși fără a exercita acțiune cinetică asupra țintei, ar trebui considerați instrumente de război și tratați ca arme. Prin urmare,
standardele etice aplicabile LEGILOR ar trebui, de asemenea, luate în considerare atunci când se proiectează, se dezvoltă sau se utilizează alte sisteme AI care
interacționează cu voința și libertatea umană. Orice tip de constrângere, fie ea fizică sau logică, ar trebui interpretată ca un act ostil, indiferent dacă implică letalitate.

Prin urmare, principiile elaborate inițial pentru formele dure de IA, cum ar fi LEGIILE, sunt la fel de valabile pentru IA soft dacă aceasta din urmă este utilizată pentru
a determina sau influența deciziile într-un mod care poate priva oamenii de acțiunea lor. Nu ar trebui să existe nicio îndoială cu privire la necesitatea de a încorpora
standarde etice „de grad militar” în tehnologiile civile care sunt susceptibile de a fi utilizate ca parte a unui sistem de arme.
Menținerea controlului asupra deciziilor este prin urmare principiul cheie, deoarece implică faptul că dezbaterea etică rămâne la utilizator, proiectantul uman și/sau
operator. Explicabilitatea este, de asemenea, obligatorie, deoarece, pentru a exercita controlul, avem nevoie de o înțelegere completă a funcționării interioare a
algoritmilor.
Chiar dacă AI este foarte utilă într-un rol de sprijin și poate aduce beneficii oamenilor, responsabilitatea trebuie să rămână cu noi. Puterea și responsabilitatea
trebuie să rămână împreună și nu ne putem permite să cedăm puterea pur și simplu evitând să ne asumăm responsabilitatea (Belgia și colab., 2019; Docherty & Human
Rights Watch, 2019).

11
Machine Translated by Google
� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

Apendice

REZUMAT AL PRINCIPIILOR CHEIE ÎN CODURI ETICE AI

BENEFICIENTA/ CONFIDENTIALITATE UMAN CORECTIE EXPLICABILITATE


DEMNITATE UMANĂ AUTONOMIE

AI4OAMENI Beneficiul: promovarea Non-malefință/Confidențialitate/ Autonomie și Justiție: promovarea Explicabilitate/Inteligibilitate/


Bunăstare, Păstrare Securitate agenție umană Prosperitate și Responsabilitate
Demnitatea și susținerea Păstrarea Solidarității
planetei
EAD2 Prioritizarea bunăstării Drepturile omului Transparen ă/
Responsabilitate
ASILOMAR Alinierea valorii/ Siguranță/Confidențialitate personală/ Controlul uman Beneficiu comun/ Transparența eșecului/
Valorile umane Libertate și confidențialitate/Non- Prosperitate împărtășită Transparență judiciară/
subversiune Responsabilitate
MONTREAL Starea de bine Protecția vieții private și a intimității Autonomia Solidaritate/Echitate/ Participarea democratică
umană/ Incluziunea diversității
Responsabilitate
COMISIA UE Respectarea refuzului de Protejarea oamenilor de vătămare/ Protejarea Evitarea dizolvării
îngrijire de către un robot libertate/împotriva încălcării umanității împotriva legăturilor sociale/Accesul

confidențialității/Gestionarea datelor riscului de egal la progres în robotică


cu caracter personal prelucrate de roboți manipulare de către
roboți
LORDS UK Inteligibilitate/Explicabilitate/ Educație/coeziune socială și

Transparență/ politică/inegalitate
Anonimizare./Răspundere/abuz
infracțional Cercetare
PARTENERIAT Beneficiați și împuterniciți cât deschisă a consecințelor Drepturile omului Responsabilitate socială/ Educați și ascultați

mai mulți oameni juridice/Confidențialitatea și Cultura de public/responsabilitate/


securitatea persoanelor/Cercetarea cooperare, încredere și De înțeles și interpretabil

și tehnologia AI este robustă, deschidere


fiabilă, de încredere și funcționează în
limitele de siguranță Conformitate/
Confidențialitate/
EPSRC Roboții sunt Siguranță și securitate Responsabilitate
artefacte fabricate: iluzia
emoțiilor și a intenției nu ar
trebui să fie folosită pentru

a exploata utilizatorii
vulnerabili.
COMEST Benefință/Demnitate Confidențialitate/Nu răni Autonomia umană Responsabilitate (răspundere,
umană transparență,
responsabilitate)/

Diversitatea culturală/
Justiție (inegalitate)
UE Demnitate/Cunoștințe Identitate/Confidențialitate și Uman Corectitudine și echitate Responsabilitate,
cumulate protecția datelor/Supraveghere și Autonomie responsabilitate și
dataficare/Democrație și încredere transparență
(profilare, roboți, știri false,
libertate de exprimare)
FAT/ML Responsabilitate Corectitudine Explicabilitate/Acuratețe/
Auditabilitate
GOOGLE Social benefic Siguranță/Confidențialitate Evitați crearea de persoane
neloiale/Fiți responsabil
față de oameni
BARCELONA Prudență/Fiabilitate Responsabilitate Rolul uman Responsabilitate
UNI Global Union Serviți oamenii și planeta Transparență/Trasabilitate/ Fundamental Echitate/Unbyas Guvernare globală
Control Libertă i i Mecanisme

Drepturi/Interdicție de

Responsabilitatea roboților
ACM Societatea și bunăstarea Evitați vătămarea/Confidențialitatea Corectitudine/ Onestitate/Încredere
umană/Proprietatea intelectuală/ Nediscriminare

binele general îmbunătățesc


IBM și extind capacitatea, Siguranță/Securitate Controlul uman Transparen ă
expertiza și potențialul
uman
DEEPMIND Beneficiu social Transparen ă

(continuare pe pagina următoare)

12
Machine Translated by Google

� �

A. G� omez de Agreda
Politica de telecomunicații 44 (2020) 101953

(continuare )

BENEFICIENTA/ CONFIDENTIALITATE UMAN CORECTIE EXPLICABILITATE


DEMNITATE UMANĂ AUTONOMIE

Microsoft Fiabilitate/Siguranță/Securitate Echitate/ Transparen ă/


Inclusivitate Responsabilitate
EURON Demnitate umană/ Fără rău/Consimțământ informat/ Drepturile omului/ Justiție, egalitate, Responsabilitate/
Beneficiu/ Confidențialitate/confidențialitate Autonomie și echitate/Diversitate Transparență/Lege þ
Biosustenabilitate culturală și explica
responsabilitate individuală pluralism/
Nediscriminare,
nestigmatizare
Principiile BAAI Promovarea Fii responsabil, controlează riscurile. Conform Intimitatea umană, Fii etic.
dezvoltării valorilor umane, demnitatea, libertatea, Încredere, corectitudine,
durabile a naturii și a precum și intereselor autonomia și drepturile ar reducerea discriminării și a
societății generale ale trebui să fie suficient prejudecăților,
omenirii. respectate. transparență,
explicabilitate, predictibilitate,
trasabilitate,
auditabilitate și responsabilitate.
DARPA Încredere/Explicabilitate/
Trasabilitate
CCW (Recomandări) Nu împiedicați progresul sau utilizările pașnice Siguranța și antropoformizarea
securitatea
sistemelor, fie
ele fizice sau
logice/Măsuri
de evaluare și

atenuare a
riscurilor/Non
Responsabilitate umană și
responsabilitate/
Controlul uman
OCDE Creștere incluzivă, Robustitate, securitate și siguranță Valori centrate pe om și Responsabilitate Transparență și
durabilă explicabilitate
dezvoltare și bunăstare corectitudine

Referințe

ACM. (2018). Codul de etică și conduită profesională (p. 1–42). Asociația pentru Mașini de Calcul. Preluat de la https://www.acm.org/about-acm/acm-code-of
etica-si-conduita-profesionala#CUPRINS.
Aicardi, Christine, Bitsch, Lise, Badum, Nicklas B., Datta, Saheli, Evers, Kathinka, Farisco, Michele și colab. (2018). Opinie despre „dubla utilizare responsabilă”. Creier uman
Proiect. Fundația Daneză pentru Tehnologie. Preluat de la https://sos-ch-dk-2.exo.io/public-website-production/filer_public/f8/f0/f8f09276-d370-4758-ad03-679fa1c57e95/hbp-ethics-society-2018-opinion-
on-dual-use.pdf. In presa.
Arkin, R. (2018). Sistemele autonome letale și situația necombatantă. În Economia politică a roboților (pp. 317–326). Cham: Palgrave MacMillan. https://doi.org/10.1007/978-3-319-51466-6_15.

Asaro, PM (2019). Declarația ICRAC la CCW GGE din martie 2019. CCW. Preluat de la https://www.icrac.net/icrac-statement-at-the-march-2019-ccw-gge/.
Austria, Brazilia și Chile. (2018). Propunere de mandat pentru negocierea unui instrument obligatoriu din punct de vedere juridic care să abordeze preocupările juridice, umanitare și etice generate de
tehnologiile emergente în domeniul sistemelor de arme autonome letale (LEGE). În 2018 reuniunea înaltelor părți contractante la CCW. Preluat de la http:// reachingcriticalwill.org/images/documents/
Disarmament-fora/ccw/2018/gge/documents/29August_Proposal_Mandate_ABC.pdf.
Baroul din Barcelona. (2019). Declarația de la Barcelona. Preluat de pe https://www.iiia.csic.es/barcelonadeclaration/.
Baura, GD (2006). Etica ingineriei: o perspectivă industrială. Elsevier Academic Press.
Academia AI din Beijing. (2019). Principiile Beijing AI - . Preluat la 1 iunie 2019, de la https://www.baai.ac.cn/blog/beijing-ai-principles.
Belgia, Irlanda și Luxemburg. (2019). Hârtie pentru gânduri. În a 4-a sesiune a LEGILOR GGE (p. 1–7).
Benkler, Y. (2019). Nu lăsați industria să scrie regulile pentru AI. Nature, 569, 161. Preluat de la https://www.nature.com/articles/d41586-019-01413-1.
Boddington, P. (2017). Spre un cod de etică în inteligența artificială. Preluat de la https://futureoflife.org/2017/07/31/towards-a-code-of-ethics-in-artificial
inteligență/.
Boden, M., Bryson, J., Calwell, D., Dauthenhahn, K., Edwards, L., Kember, S., și colab. (2010). Principiile roboticii. Preluat de pe https://epsrc.ukri.org/research/
portofoliul nostru/teme/inginerie/activități/principii de robotică/.
Republica Bolivariană Venezuela. (2018). Principii generale privind sistemele de arme autonome letale. În Grupul de experți guvernamentali ai înaltelor părți contractante la
CCW (p. 1–2).
Boulanin, V. (2018). Impactul inteligenței artificiale asupra stabilității strategice și a riscului nuclear. SIPRI. https://doi.org/10.2991/icsshe-18.2018.203.
Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B. și colab. (2018). Utilizarea rău intenționată a inteligenței artificiale: previziune, prevenire și atenuare
(februarie 2018). https://doi.org/10.1002/adma.201405087.
Buiten, MC (2019). Spre reglarea inteligentă a inteligenței artificiale. Jurnalul European de Reglementare a Riscului. https://doi.org/10.1017/err.2019.8. octombrie 2018.
Campanie pentru a opri roboții ucigași. (2018). Campanie pentru a opri roboții ucigași. Preluat de la https://www.stopkillerrobots.org/.
Casey, B., Farhangi, A. și Vogl, R. (2019). Regândirea mașinilor explicabile. Berkeley Technology Law Journal, 34, 1–50. Preluat de la https://papers.ssrn.com/sol3/
documente.cfm?abstract_id¼3143325.
CCW. (2018). Raportul grupului de experți guvernamentali din 2018 privind sistemele de arme autonome letale.
Chertoff, AP (2018). Pericolele proliferării sistemelor de arme autonome letale: prevenirea achiziției non-statale. Centrul de Politică de Securitate de la Geneva (2). Preluat de la https://www.gcsp.ch/News-
Knowledge/Publications/Perils-of-Lethal-Autonomous-Weapons-Systems-Proliferation-Preventing-Non-State-Acquisition.
China. (2018). Hârtia de poziție. În 2018 reuniunea înaltelor părți contractante la CCW (p. 1–22).

13
Machine Translated by Google

� �

A. G� omez de Agreda
Politica de telecomunicații 44 (2020) 101953

Centrul de Cercetare China-Regatul Unit pentru Etică și Guvernare AI. (2018). Linking Artificial Intelligence Principles (LAIP) (nd)Preluat la 11 iunie 2019, de la http://www. linking-ai-principles.org/
principles.
COMEST. (2017). Raportul COMEST privind etica roboticii. Paris. Preluat de la https://unesdoc.unesco.org/ark:/48223/pf0000253952.
Craglia, M. (2018). Inteligența artificială: o perspectivă europeană - Comisia Europeană. Luxemburg. Preluat de la https://ec.europa.eu/jrc/en/publication/eur
rapoarte-științifice-și-tehnice-de-cercetare/inteligentă-artificială-perspectivă-europeană.
Dahlmann, A. și Dickow, M. (2019). Reglementarea preventivă a sistemelor de arme autonome: nevoia de acțiune a Germaniei la diferite niveluri. Institutul German pentru Afaceri Internaționale și de
Securitate (3). Preluat de la https://www.ssoar.info/ssoar/bitstream/handle/document/62252/ssoar-2019-dahlmann_et_al-Preventive_regulation_of_ autonomous_weapon.pdf?
sequence¼1&isAllowed¼y&lnkname¼ssoar-2019-dahlmann_et_al-Preventive_regulation_of_autonomous_weapon.pdf?
DeepMind. (2017). Etica DeepMind și principiile societății. Preluat de la https://deepmind.com/applied/deepmind-ethics-society/principles/.
Consiliul de inovare a apărării. (2019). Principii AI: Recomandări privind utilizarea etică a inteligenței artificiale de către. Departamentul Apararii.
Consiliul de inovare a apărării. (2019). Principii AI: Recomandări privind utilizarea etică a inteligenței artificiale de către Departamentul Apărării. Consiliul de inovare a apărării
Document justificativ.
Diakopoulos, N., Friedler, S., Arenas, M., Barocas, S., Hay, M., Howe, B., și colab. (2018). Principii pentru algoritmi responsabili și o declarație de impact social pentru algoritmi.
http://www.fatml.org/resources/principles-for-accountable-algorithms. Preluat la 12 ianuarie 2019, de la.
Docherty, B. și Human Rights Watch. (2019). Punctul 5(a) al ordinii de zi privind provocările aduse dreptului internațional umanitar. În Declarația la convenția privind
arme convenționale (CCW) grup de experți guvernamentali pe agenda sistemelor de arme autonome letale (p. 2).
Edwards, J., Natalucci, M., Oberlin, J. și Tigkos, K. (2019). C4ISR și războiul centrat pe rețea: Tendințele actuale și conținutul evoluțiilor proiectate. Apărarea lui Jane
Centrul de Inteligență pentru Industrie și Piețe.
Ekelhof, Merel AC (2018). Ridicarea negurii țintirii: „Arme autonome” și control uman prin prisma țintirii militare. Revista Colegiului Naval de Război,
71(3), 6.
Ekelhof, MAC (2017). Complicațiile unui limbaj comun: de ce este atât de greu să vorbim despre arme autonome. Journal of Conflict and Security Law, 22(2), 311–331. https://doi.org/10.1093/jcsl/
krw029.
Comisia Europeană. (2015). Notă explicativă privind potențiala utilizare greșită a cercetării.
Comisia Europeană. (2015). Cercetare cu accent exclusiv pe aplicații civile. Politica și legea farmaceutică, 6.
Comisia Europeană. (2018). Regulamentul general privind protecția datelor (GDPR). Preluat la 4 iunie 2019, de pe https://gdpr-info.eu/.
Comisia pentru afaceri juridice a Parlamentului European. (2016). Reguli de drept civil privind robotica. Preluat de la http://www.europarl.europa.eu/RegData/etudes/STUD/2016/
571379/IPOL_STU(2016)571379_EN.pdf.
Fischer, S.-C. și Wenger, A. (2019). Un centru neutru din punct de vedere politic pentru cercetarea IA de bază. CSS ETH Zurich Policy Perspectives, 7 (martie).
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., et al. (2018). AI4People – un cadru etic pentru o societate bună AI: Oportunități,
riscuri, principii și recomandări. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5.
Institutul Viitorul Vieții. (2017). Principiile Asilomar - Institutul viitorului vieții. În 2017 conferința asilomar. Preluat de pe https://futureoflife.org/ai-principles/.
Gubrud, MA (2018). Definiția de la Ottawa a minelor terestre ca început pentru definirea LEGILOR. În Convenția privind armele convenționale, grupul de experți guvernamentali reunit pe
sisteme de arme autonome letale, (aprilie).
Gunkel, DJ (2018). Cealaltă întrebare: pot și ar trebui roboții să aibă drepturi? Etica și Tehnologia Informației, 20(2), 87–99. https://doi.org/10.1007/s10676-017-
9442-4.
Gunning, D. (2017). Inteligență artificială explicabilă (XAI). Necesitatea unei IA explicabile. https://doi.org/10.1111/fct.12208 (Noiembrie).
Grupul de experți la nivel înalt privind inteligența artificială, Comisia Europeană. (2019). Orientări etice pentru IA de încredere. Preluat de la https://ec.europa.eu/newsroom/
dae/document.cfm?doc_id¼58477.
Horowitz, MC (2016). Opinia publică și politica roboților ucigași dezbate. Cercetare și politică, 3(1). https://doi.org/10.1177/2053168015627183,
205316801562718.
IBM. (2018). Codul de conduită IBM Partnerworld. Preluat de la https://www.ibm.com/partnerworld/program/code-of-conduct.
IEEE. (2016). Design aliniat etic V2. https://doi.org/10.1109/MCS.2018.2810458.
Comitetul Internațional al Crucii Roșii. (2018). Etica și sistemele de arme autonome: O bază etică pentru controlul uman?. În grupul de experți guvernamentali ai
înalte părți contractante la CCW (p. 1–22).
Lewis, L. (2018). Redefinirea controlului uman. Lecții de pe câmpul de luptă pentru arme autonome. Centrul pentru Autonomie și IA (Preluat de pe cna.org/CAAI).
Leys, N. (2018). Sisteme de arme autonome și crize internaționale. Strategic Studies Quarterly, 12(1), 48–73. https://doi.org/10.2307/26333877.
Logg, JM, Minson, JA și Moore, DA (2019). Aprecierea algoritmului: oamenii preferă judecata algoritmică decât umană. Comportamentul organizațional și procesele de decizie umană, 151, 90–103.
https://doi.org/10.1016/j.obhdp.2018.12.005.
McGrath, J. și Gupta, A. (2018). Scrierea unui cod moral: algoritmi pentru raționamentul etic de către oameni și mașini. Religii, 9(8), 240. https://doi.org/10.3390/
rel9080240.
Microsoft. (2019). Principiile AI. Preluat de la https://www.microsoft.com/en-us/ai/our-approach-to-ai.
Muehlhauser, L. și Helm, L. (2012). Explozia de inteligență și etica mașinilor. Ipoteza singularității: o evaluare științifică și filozofică, 6, 1–28. https://doi. org/10.1007/978-3-642-32560-1_6.

Newswise. (2013). Noul sondaj arată o opoziție larg răspândită față de „roboții ucigași”, sprijin pentru noua campanie de interzicere. Preluat la 27 aprilie 2019, de la https://www.newswise.com/
articole/new-survey-shows-widespread-opposition-to-killer-robots-support-for-new-ban-campaign.
OCDE. (2018). AI: Mașini inteligente, politici inteligente. În documentele OCDE privind economia digitală. Preluat de la https://artsandculture.google.com/.
OCDE. (2019). Principiile OCDE privind inteligența artificială. Preluat la 4 iunie 2019, de la https://www.oecd.org/going-digital/ai/principles/.
OCDE. (2019). Recomandarea consiliului privind inteligența artificială. Mediu (aprilie).
Parasuraman, R., Sheridan, TB și Wickens, CD (2000). Un model pentru tipurile și nivelurile de interacțiune umană cu automatizarea. Tranzacții IEEE pe sisteme, Man și
Cybernetics - Part A: Systems and Humans, 30(3), 286–297. https://doi.org/10.1109/3468.844354.
Penney, J., McKune, S., Gill, L. și Deibert, RJ (2018). Avansarea drepturilor omului prin proiectare în industria tehnologiei cu dublă utilizare. Columbia Journal of International
Afaceri, (aprilie). Preluat de la https://jia.sipa.columbia.edu/advancing-human-rights-design-dual-use-technology-industry.
Pichay, S. (2018). Principiile noastre – Google AI. Preluat la 27 aprilie 2019, de la https://ai.google/principles/.
Potoglou, D., Patil, S., Gijon, C., Palacios, J. și Feijoo, C. (2013). Valoarea informațiilor personale online: rezultate din trei experimente de alegere discretă cu preferințe declarate în Marea Britanie.
ORCA. La a 21-a conferință europeană pentru sistemele informaționale. Utrecht, Țările de Jos. Preluat de pe http://orca.cf.ac.uk/51292/.
Rothenberger, L., Fabian, B. și Arunov, E. (2019). Relevanța orientărilor etice pentru inteligența artificială – un sondaj și o evaluare. În Proc. A 27-a conferință europeană
privind sistemele informaționale, Stockholm și Uppsala, Suedia, 8-14 iunie 2019.
Federația Rusă. (2018). Abordările Rusiei cu privire la elaborarea unei definiții de lucru și a funcțiilor de bază ale sistemelor de arme autonome letale în contextul
scopurile și obiectivele convenției. În Grupul de experți guvernamentali ai înaltelor părți contractante la CCW (p. 1–3).
Scharre, P. (2018). Un milion de greșeli pe secundă. Politica externă, toamna.
Scharre, P. (2019). Aplicații ucigașe: pericolele reale ale unei curse înarmărilor AI. Afaceri Externe, (iunie), 135–145. Preluat de la https://www.foreignaffirs.com/articles/2019-04-
16/ killer-apps.
Comitetul restrâns pentru IA al Camerei Lorzilor. (2018). AI în Marea Britanie: gata, dornic și capabil?. Preluat de la https://publications.parliament.uk/pa/ld201719/ldselect/
ldai/100/10001.htm.
Sharikov, P. (2019). Inteligență artificială, atacuri cibernetice și arme nucleare: o combinație periculoasă. Institutul de Est-Vest. Preluat de la https://www.eastwest.ngo/
idee/inteligentă-artificială-atacuri-cibernetice-și-combinație-periculoasă-de-arme-nucleare.
Sharkey, N. (2018). Linii directoare pentru controlul uman al sistemelor de arme. Preluat de pe http://bit.ly/1h6X6jB.
Straub, J. (2016). Luarea în considerare a utilizării vehiculelor și a programelor fără pilot autonome, nerechemabile, ca un factor de descurajare sau amenințare de către actorii de stat și alții.
Tehnologia în societate, 44, 39–47. https://doi.org/10.1016/J.TECHSOC.2015.12.003.

14
Machine Translated by Google

� �

A. G� omez de Agreda Politica de telecomunicații 44 (2020) 101953

Tavani, HT (2018). Pot roboții sociali să se califice pentru considerație morală? Reformularea întrebării despre drepturile roboților. Informații, 9(4), 73. https://doi.org/10.3390/
info9040073.
Parteneriatul pentru AI. (2018). Principii. Preluat la 3 ianuarie 2019, de la https://www.partnershiponai.org/tenets/.
Thomson, JJ (1984). Problema căruciorului (Vol. 94). Jurnalul de Drept din Yale. Preluat de la https://heinonline.org/HOL/Page?handle¼hein.journals/
ylr94&id¼1415&div¼&collection¼.
Williams, Andrew P. și Scharre, Paul D. (2015). Probleme legate de sistemele autonome pentru factorii de decizie în domeniul apărării. ACTUL NATO. https://apps.dtic.mil/dtic/tr/fulltext/u2/1010077.
pdf.
Universitatea Internațională Trinity (nd). Centrul pentru Bioetică și Demnitate Umană. Preluat la 19 mai 2019, de la https://cbhd.org/category/issues/human-dignity.
UNI Global Union. (2018). 10 principii pentru IA etică. Preluat la 1 februarie 2019, de la http://www.thefutureworldofwork.org/opinions/10-principles-for-ethical-ai/.
Institutul Națiunilor Unite pentru Cercetare în Dezarmare. (2017). Armonizarea tehnologiilor din ce în ce mai autonome: Preocupări, caracteristici și abordări definiționale, un primer. Resurse UNIDIR,
6(6). Preluat de pe www.unidir.org.
Universitatea din Montreal. (2018). Declarația de la Montreal pentru dezvoltarea responsabilă a IA. Preluat la 3 ianuarie 2019, de la https://www.montrealdeclaration responsableai.com/the-
declaration.
Upshaw Downs, JC și Swienton, AR (2012). Etica în criminalistică. Academic.
Departamentul Apărării al SUA. (2012). Autonomia în sistemele de arme. Preluat de la https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf.

15

S-ar putea să vă placă și