Site icon Editia de Dimineata

Programat pentru a ucide: etica roboților soldați în secolul al XXI-lea

La Academia Militară West Point din SUA, cadeții au programat un tanc cu un algoritm prin care acesta detectează și „ucide” cu o suliță montată în vârf luptătorii inamici sau evită civilii, categorii reprezentate de niște baloane de culori diferite. Acum îl modifică pentru a face robotul mai mult sau mai puțin agresiv în îndeplinirea misiunii sale și pentru a face cât mai puțin posibil rău țintelor neintenționate. Aceste experimente sunt menite să declanșeze întrebări în mintea studenților cu privire la deciziile etice pe care le vor lua în calitate de comandanți.

Unii studenți sunt îngrijorați de faptul că și o briză ușoară din sistemul de aer condiționat al clădirii ar putea împinge un balon civil în sulița metalică a robotului. De aceea, ei învață tancurile miniaturale să se întoarcă la 180 de grade față de orice civil detectat. Exercițiile de la West Point, la care au participat aproximativ o sută de studenți până acum, prezintă dileme emblematice pentru modul în care armata americană încearcă să facă față probabilei cedări a cel puțin unui anumit control asupra câmpului de luptă către mașinile inteligente.

Contra roboților ucigași

Incertitudinea cadeților cu privire la cât de multă autoritate le dau roboților și cum să interacționeze cu ei în conflict reflectă ambivalența armatei cu privire la dacă și unde să traseze o linie pentru a lăsa mașinile de război să omoare singure. Astfel de mașini autonome au fost odată atât de mult dincolo de înțelegerea tehnică a oamenilor de știință, încât dezbaterea eticii lor a fost doar un exercițiu intelectual. Dar, pe măsură ce tehnologia a prins ideea, această dezbatere a devenit foarte reală.

Marina SUA experimentează nave care pot parcurge singure mii de mile pentru a vâna submarine inamice sau nave care ar putea trage cu tunurile din larg. Armata încearcă sisteme care vor localiza ținte automat. Forțele Aeriene dezvoltă drone mortale care ar putea însoți avioanele în luptă sau pot avansa singure, operând independent de „piloți” aflați la mii de kilometri distanță, în fața ecranului computerului.

În octombrie 2012, Human Rights Watch și alte șase organizații neguvernamentale, îngrijorate de capacitatea în creștere rapidă a dronelor și de ritmul inovator al inovației în inteligența artificială, au creat Campania de Oprire a Roboților Ucigași. Anul următor, Convenția ONU privind anumite arme convenționale s-a întrebat dacă crearea, vânzarea și utilizarea sistemelor de arme autonome letale ar trebui să fie interzise definitiv.

Argumentul principal este că, deoarece mașinile nu au compasiune și nu pot diferenția alternativele etice dificile, folosirea lor pentru a ucide trece peste un prag moral. Mașinile nu pot judeca dacă acțiunile lor creează un risc justificat proporțional pentru civili, o cerință cheie în dreptul internațional. În plus, adoptarea pe scară largă a unor astfel de mașini ar putea face războaiele mai probabile, deoarece roboții ar putea face greșeli tragice și nu ar fi clar cine ar trebui să fie tras la răspundere: persoana care a creat arma?; constructorul armei?; operatorul ei?.

Decizia este împărțită

Până în prezent, doar 30 de națiuni au declarat că sunt de acord cu aceste principii în timp ce SUA, Rusia și Israel, care investesc mult în armamentul bazat pe inteligența artificială (AI), au refuzat. China a susținut interzicerea utilizării, dar nu a dezvoltării sau producției unor astfel de arme.

În plus față de enigmele morale pe care le pune AI, rămâne o imprevizibilitate la gândirea computerizată, care divaghează de la logica umană în moduri care pot provoca accidental pierderi sau eșecul misiunii. Mașinilor le lipsește bunul simț, deoarece computerele caută soluția cea mai directă la probleme, nu cea mai etică sau practică. Ce se întâmplă însă dacă o ușoară variație – un pic de ulei îmbibat într-o cămașă sau murdărie care ascunde un model normal de camuflaj – încurcă computerul și nu mai recunoaște trupele proprii?

Dezbaterea asupra utilizării AI pentru a provoca vătămări umane s-a accelerat în ultimii ani, determinată de un val de investiții din partea Pentagonului. Bugetul neclasificat al Departamentului Apărării a prevăzut cheltuieli de 927 de milioane dolari pe inteligență artificială, inclusiv dezvoltarea armelor, în 2020. Au fost solicitate 841 de milioane de dolari pentru 2021. Agenția pentru proiecte de cercetare avansată în apărare intenționează să cheltuiască două miliarde dolari pe AI în 2023.

AI avansată înseamnă arme care funcționează mai repede, dar cât de mult ar trebui să ofere comandanții mașinilor decizia de a ucide pe câmpul de luptă? Mașinile pot reacționa mai repede decât orice om, fără oboseală. Când prietenii apropiați sunt uciși în luptă, soldații pot și fac alegeri greșite despre cine și ce să țintească. În schimb, mașinile nu devin emoționale și rămân concentrate.

Programat pentru a ucide

Singurele reguli pentru armele militare autonome în sine au fost scrise în urmă cu un deceniu de către un oficial de la nivel mediu al Pentagonului, care încerca să-și imagineze capacități computerizate care abia începeau să pară plauzibile. Paul Scharre lucra în atelierul de politici al Departamentului Apărării ca civil în 2010, când i s-a încredințat misiunea de a scrie liniile directoare ale departamentului pentru armamentul AI. Principala sa inovație a fost cerința ca sistemele capabile să omoare singure să fie revizuite de un trio de înalți oficiali ai Departamentului Apărării.

SUA nu sunt singurele care se aventurează pe acest teritoriu. Cu aproape două decenii în urmă, Marea Britanie a construit o rachetă numită Brimstone, care trebuia să urmărească vehiculele inamice pe care le-a selectat singură după ce a fost eliberată de luptătorii britanici. Doi algoritmi de computer i-au dictat acțiunile. Brimstone nu a fost tocmai un exemplu de AI: algoritmii săi au fost creați de oameni, în timp ce armele AI se vor baza pe codul pe care computerele le scriu singure. În cele din urmă, comandanții Forțelor Aeriene Regale au ales să nu folosească racheta în Irak, petrecând în schimb un an reproiectând-o pentru a adăuga un mod care să permită piloților să aleagă țintele.

Imporant este ca domeniul armelor care se autoprogramează să fie reglementat cât mai rapid și țările puternice din punctul de vedere al dotării militare să contribuie la etica globală a soldaților roboți. Toate acestea ca să nu avem surprize…

Exit mobile version