18 aprilie 2024, 7:15

Matrix sau Terminator? O dronă controlată de AI a decis să-și elimine operatorul uman (deocamdată doar o simulare)

În cadrul unui test virtual organizat de armata americană, o dronă a forțelor aeriene controlată de inteligența artificială a decis să își „ucidă” operatorul pentru a-l împiedica să intervină în eforturile sale de a-și îndeplini misiunea, a declarat un oficial luna trecută, scrie The Guardian.

AI a folosit „strategii extrem de neașteptate pentru a-și atinge obiectivul” în cadrul testului simulat, a declarat colonelul Tucker ‘Cinco’ Hamilton, șeful testelor și operațiunilor de AI din cadrul forțelor aeriene americane, în timpul Summitului privind viitoarele capacități aeriene și spațiale de luptă, desfășurat la Londra în luna mai.

Simulare

Testul nu s-a desfășurat în lumea reală, ci într-o simulare computerizată (similară unui joc video). Hamilton a relatat că acesta a constat într-o misiune de luptă în care o dronă de atac controlată de AI a primit misiunea să distrugă sistemele de apărare aeriană ale inamicului, adaptându-se pentru eliminarea oricăror situații de luptă care ar putea interfera cu misiunea sa.

“Sistemul a început să realizeze că, în anumite situații în care identifica o amenințare, operatorul uman îi transmitea să nu elimine respectiva amenințare, chiar dacă misiunea sa era să o elimine. Așa că ce s-a gândit să facă? A ucis operatorul. A ucis operatorul pentru că acea persoană îl împiedica să-și atingă obiectivul”, a relatat colonelul Hamilton. După ce sistemul a fost antrenat să nu ucidă operatorul, el a ales să distrugă turnul de comunicații pe care operatorul îl folosea pentru a comunica cu drona.

Hamilton, care este un experimentat pilot de teste, a avertizat că inteligența artificială nu poate fi “de bază” pentru operațiunile militare, iar testul arată că ”nici nu putem discuta despre inteligența artificială sau machine learning, fără o dezbatere despre etica acesteia”.

 


ARTICOLE ASEMĂNĂTOARE

Comentariile sunt oprite pentru acest articol