13 septembrie 2024, 11:11

Legea privind Inteligența Artificială în UE: ce beneficii aduc noile tehnologii și cum sunt protejate datele cetățenilor

La 13 martie 2024, Parlamentul European a adoptat în mod istoric Legea pentru Inteligența Artificială (EU AI Act), marcând un pas semnificativ către asigurarea drepturilor fundamentale ale cetățenilor în utilizarea inteligenței artificiale (AI), promovând în același timp inovația. Regulamentul, convenit în negocieri cu statele membre în decembrie 2023, a fost puternic susținut de membrii parlamentului, cu 523 de voturi pentru, 46 împotrivă și 49 de abțineri.

AI Act își propune să protejeze drepturile fundamentale, democrația, statul de drept și mediul, de riscurile care pot apărea în urma folosirii tehnologiilor AI. De asemenea, caută să poziționeze Europa ca lider în domeniul AI prin stabilirea obligațiilor pentru sistemele AI bazate pe riscuri potențiale și niveluri de impact.

Transformarea digitală a societății, intensificată de pandemia de COVID-19, a extins peisajul amenințărilor și a adus noi provocări, inclusiv în domeniul inteligenței artificiale. Aceste provocări necesită răspunsuri adaptate la realitate și soluții inovatoare. Pe lângă beneficiile aduse științei și cercetării de AI, întreaga societate a devenit din ce în ce mai digitalizată, având la dispoziție tehnologii AI care comprimă timpul, ușurează învățarea și accesul la informații, îmbunătățind astfel calitatea vieții.

Ca parte a strategiei sale digitale și inițiativei Uniunea Europeană a Sănătății, în aprilie 2021, Comisia Europeană a propus primul cadru de reglementare al UE pentru AI.

Legea clasifică tehnologiile AI în categorii de risc, variind de la „inacceptabil” (tehnologie interzisă) până la risc ridicat, mediu și scăzut. Se așteaptă ca regulamentul să intre în vigoare după ce trece de verificările finale și primește aprobarea Consiliului European. Implementarea va fi realizată în etape, începând din 2025.

„Noi sperăm ca acest AI Act, legea care reglementează inteligența artificială în Uniunea Europeană, să producă alt tip de efecte decât a produs regulamentul pentru protecția datelor cu caracter personal, faimosul GDPR, care, și acum, din perspectiva cercetării medicale împiedică inovația și cercetarea și progresul. Sperăm ca odată implementat, AI Act să producă din perspectiva cercetării, inovării și dezvoltării în domeniul sănătății, un efect favorabil.

(…) Aceste inițiative se uită la domeniul digitalizării din perspectiva reglementării. Este clar că odată cu provocările inerente ale mediilor digitale, ale datelor, vin și foarte multe oportunități. Odată cu transformările acestea vin și foarte multe riscuri, iar toate aceste elemente trebuie să fie reglementate. Unde este provocarea? De fapt, odată cu mediile digitale și cu datele și mai ales cu inteligența artificială, noi intrăm într-o logică mult mai dinamică decât eram obișnuiți până acum. De aceea este o provocare nu neapărat în momentul inițial în care apar astfel de declarații, dar mai ales cum aceste documente vor ține pasul cu ceea ce se întâmplă în viața reală” – a explicat Dr. Marius Geantă, Președinte Centrul pentru Inovație în Medicină.

Dispozițiile AI Act

Noile reguli interzic anumite aplicații AI care amenință drepturile cetățenilor, inclusiv:

  • Sisteme de clasificare biometrică bazate pe caracteristici sensibile.
  • Analiza imaginilor faciale de pe internet sau din înregistrările CCTV pentru a crea baze de date de recunoaștere facială.
  • Recunoașterea emoțiilor la locul de muncă și școli.
  • Scorul social predictiv (atunci când se referă la profilarea unei persoane sau evaluarea caracteristicilor sale).
  • AI care manipulează comportamentul uman sau exploatează vulnerabilitățile persoanelor.

Excepții pentru forțele de ordine: Utilizarea sistemelor de identificare biometrică de către forțele de ordine este interzisă în principiu, exceptând situațiile strict definite. Identificarea biometrică „în timp real” poate fi implementată doar dacă sunt îndeplinite anumite condiții, cum ar fi utilizarea limitată în timp și domeniu geografic și supusă unei autorizații judiciare sau administrative prealabile specifice. Astfel de utilizări pot include căutarea țintită a unei persoane dispărute sau prevenirea unui atac terorist.

Sistemele de risc înalt: Astfel de sisteme trebuie să evalueze și să reducă riscurile, să mențină jurnale de utilizare, să fie transparente și precise și să asigure supravegherea umană. Cetățenii vor avea dreptul de a depune plângeri despre sistemele AI și de a primi explicații despre deciziile bazate pe sisteme AI de risc înalt care le afectează drepturile.

  • Infrastructura critică și medicală.
  • Educația și formarea profesională.
  • Angajarea și managementul lucrătorilor.
  • Serviciile private și publice esențiale (de exemplu, sănătatea, băncile).
  • Forțele de ordine și gestionarea migrației.
  • Justiția și procesele democratice (de exemplu, influențarea alegerilor).

Cerințe de transparență

Sistemele AI cu scop general (GPAI) și modelele GPAI pe care se bazează trebuie să îndeplinească anumite cerințe de transparență, inclusiv:

  • Conformitatea cu legea UE privind drepturile de autor.
  • Publicarea rezumatelor detaliate ale conținutului utilizat pentru instruire.

În plus, imaginile, conținutul audio sau video artificial sau manipulat („deepfakes”) trebuie să fie etichetate clar ca atare.

Sistemele AI Generative

În ceea ce privește sistemele AI generative, cum este și cazul lui ChatGPT, acestea vor trebui să îndeplinească o serie de cerințe pentru creșterea nivelului de transparență:

  • Dezvăluirea faptului că indiferent de natura lui, conținutul a fost generat de un instrument de inteligență artificială.
  • Dezvoltarea modelului AI într-o asemenea manieră încât să prevină generarea de conținut ilegal.
  • Publicarea dovezilor cu privire la sursele protejate prin drepturi de autor care au fost utilizate pentru instruirea modelului.

ARTICOLE ASEMĂNĂTOARE

Comentariile sunt oprite pentru acest articol