Site icon Editia de Dimineata

Omul a ajuns să îi demonstreze robotului că e om. Acum se sperie de inteligența artificială și vrea reglementări și stavile

Italia devine prima țară din lume care blochează temporar ChatGPT, robotul conversațional bazat pe inteligență artificială. Autoritățile de la Roma acuză compania din spatele ChatGPT că nu respectă legile privind protecția datelor și că nu are un sistem pentru verificarea vârstei minorilor. Decizia are efect „imediat”.

Blocarea ChatGPT va avea drept consecinţă „limitarea provizorie a prelucrării datelor utilizatorilor italieni prin intermediul OpenAI, creatorul ChatGPT”, conform unui anunț al autorității naţionale pentru protecţia datelor cu caracter personal din Italia.

În acelaşi comunicat, autoritatea italiană a subliniat că ChatGPT „a suferit pe 20 martie o pierdere de date privind conversaţiile utilizatorilor şi informaţiile aferente plăţilor făcute de abonaţii la serviciul său cu plată”.

De asemenea, reproșează companiei care a creat softul că nu îi informează pe utilizatori cu privire la datele pe care le colectează, dar și că nu are un filtru de verificare a vârstei utilizatorilor, astfel expunându-i pe minori la răspunsuri nepotrivite vârstei lor.

Inamicul public numărul unu

Anunţul vine și după ce Europol a avertizat că infractorii sunt pregătiţi să se folosească de inteligenţa artificială, precum robotul conversaţional ChatGPT, pentru a comite fraude şi alte infracţiuni cibernetice.

ChatGPT a ajuns aproape inamicul public numărul unu în ultimul timp. Nu e zi în care să nu apară de undeva o știre în care să nu fie semnalată o problemă legată de acest soft.

În Statele Unite, OpenAI se confruntă cu o plângere la Comisia Federală pentru Comerţ, care îndeamnă agenţia să investigheze grupul şi să suspende lansările instrumentelor AI generative, inclusiv cea mai recentă versiune a popularei ChatGPT, transmite CNBC.

Plângerea, făcută publică joi de grupul de cercetare nonprofit Center for AI and Digital Policy, acuză OpenAI de încălcarea Secţiunii 5 din Legea FTC, care interzice practicile comerciale neloiale şi înşelătoare, şi îndrumările agenţiei pentru produsele AI.

CAIDP numeşte GPT-4 ”părtinitoare, înşelătoare şi un risc pentru confidenţialitate şi siguranţa publică”.

Grupul spune că modelul lingvistic nu îndeplineşte standardele agenţiei pentru ca AI să fie ”transparentă, explicabilă, corectă şi solidă din punct de vedere empiric, încurajând în acelaşi timp responsabilitatea”.

Grupul doreşte ca FTC să solicite ca OpenAI să stabilească o modalitate de a evalua în mod independent produsele GPT înainte ca acestea să fie implementate în viitor.

De asemenea, doreşte ca FTC să creeze un sistem public de raportare a incidentelor pentru GPT-4 similar cu sistemele sale de raportare a fraudei împotriva consumatorilor.

De asemenea, doreşte ca agenţia să preia o iniţiativă de reglementare pentru a crea standarde pentru produsele AI generative.

Apelul aproape incredibil al unor personalități. Riscuri profunde pentru umanitate

Inteligența artificială pare că ne trage covorul de sub picioare și ne cam sperie. Sau cel puțin pe cei care tocmai se folosesc de ea mai mult sau mai puțin și fac bani cu ea, și nu puțini.

Zilele trecute, o ditai lista cu circa 1000 de nume circula în presa lumii. Pe listă, nume grele.  Elon Musk, Steve Wozniak, Yuval Harari și alte personalități se alăturaseră unui grup de experți care cer o pauză de șase luni în dezvoltarea sistemelor avansate de inteligență artificială. Consideră că aceasta prezintă “riscuri profunde pentru umanitate” și trebuie reglementată.

Dezvoltatorilor și laboratoarelor de inteligență artificială li se solicită o pauză voluntară și “verificabilă” de șase luni în crearea unor sisteme AI mai puternice decât GPT-4 (abia lansat de Open AI), timp în care ar trebui implementate protocoale de siguranță. Scrisoarea detaliază, de asemenea, riscurile potențiale pentru societate și civilizație pe care le pot aduce sistemele de inteligență artificială, prin perturbări economice, sociale și politice.

Printre semnatari se numără Elon Musk, Steve Wozniak (cofondatorul Apple) și Emad Mostaque (directorul general al Stability AI). Citiți și vă minunați. Sau înspăimântați, după caz.

Textul integral al scrisorii deschise:

Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele de top. După cum se precizează în Principiile Asilomar AI, acceptate pe scară largă, inteligența artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificată și gestionată cu grijă și cu resurse pe măsură.

Din păcate, acest nivel de planificare și management nu are loc, iar în ultimele luni laboratoarele de inteligență artificială s-au înscris într-o cursă scăpată de control pentru a dezvolta și a implementa minți digitale tot mai puternice pe care nimeni, nici măcar creatorii lor, nu le pot înțelege, prezice sau controla într-un mod acceptabil.

Sistemele AI contemporane devin acum competitive pentru oameni la sarcini generale și trebuie să ne întrebăm: Ar trebui să lăsăm mașinile să ne inunde canalele de informații cu propagandă și neadevăr? Ar trebui să automatizăm toate sarcinile, inclusiv pe cele făcute din pasiune? Ar trebui să dezvoltăm creiere non-umane care, în cele din urmă, ar putea să ne copleșească, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre? Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei. Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile. Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem. Declarația recentă a OpenAI cu privire la inteligența generală artificială afirmă că “La un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să antrenăm sisteme viitoare, iar pentru cele mai avansate dintre ele am putea conveni să limităm rata de progresie utilizată pentru crearea de noi sisteme.”

Suntem de acord. Acel moment este acum.

Prin urmare, solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, timp de cel puțin 6 luni, dezvoltarea sistemelor de inteligență artificială mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, care sunt auditate și supravegheate riguros de experți externi independenți. Aceste protocoale ar trebui să asigure că sistemele care aderă la acestea sunt sigure dincolo de orice îndoială rezonabilă. Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar un pas înapoi din cursa periculoasă către modele din ce în ce mai puternice, imprevizibile, cu capacități emergente.

Cercetarea și dezvoltarea AI ar trebui să se reorienteze pentru a face sistemele de astăzi, deja puternice, mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale. Acestea ar trebui să includă cel puțin: noi autorități de reglementare dedicate AI; supravegherea și urmărirea sistemelor AI de înaltă capacitate și a sistemelor cu mare putere de calcul în general; sisteme de marcaj care să permită distincția între creația AI și cea umană și să permită urmărirea și transferul modelelor AI; un ecosistem robust de auditare și certificare; stabilirea răspunderii pentru eventuale prejudicii cauzate de AI; finanțare publică solidă pentru cercetarea tehnică a siguranței AI; instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca AI.

Omenirea se poate bucura de un viitor înfloritor cu AI. După ce am reușit să creăm sisteme AI puternice, acum ne putem bucura de o “vară a inteligenței artificiale” în care să culegem roadele, să proiectăm aceste sisteme pentru beneficiul clar al tuturor și să oferim societății șansa de a se adapta. Societatea a oprit alte tehnologii cu efecte potențial catastrofale asupra noastră. Putem face asta aici și acum. Să ne bucurăm de o vară lungă cu AI, dar să nu ne grăbim nepregătiți spre toamnă.

Până și Europol exprimă preocuparea legată de chestiuni de natură etică și juridică

Demersul acestor personalităţi vine în contextul în care şi Europol, forţa de poliţie a UE, s-a alăturat luni vocilor – tot mai multe – care exprimă în ultimul timp preocupările de natură etică şi juridică în legătură cu inteligenţa artificială avansată, cum ar fi ChatGPT. Europol a avertizat cu privire la potenţiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare şi criminalitate informatică.

Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Future of Life Institute.

În schimb, Elon Musk, a cărui companie de automobile Tesla foloseşte AI pentru un sistem de pilot automat, şi-a exprimat deschis îngrijorarea cu privire la AI.

De la lansarea sa, anul trecut, ChatGPT al OpenAI, susţinut de Microsoft, a determinat rivalii să accelereze dezvoltarea unor modele similare de limbaj, de mari dimensiuni, iar companiile să integreze modele generative de inteligenţă artificială în produsele lor.

„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când vom înţelege mai bine ramificaţiile”, a declarat Gary Marcus, profesor emerit la Universitatea din New York. „Pot provoca daune serioase. Marii jucători devin tot mai secretoşi în legătură cu ceea ce fac, ceea ce face ca societăţii să-i fie greu să se apere împotriva unor eventuale daune care s-ar putea materializa”, arată profesorul.

Am creat deja un monstru și acesta scapă de sub control? Ne copleșesc deja creierele non-umane? Cum ajută, în acest caz, pauza de șase luni cerută în scrisoarea celor 1000? Oare nu e tardivă îngrijorarea? Nu de alta, dar să ne amintim că de câteva ori pe zi, în cele mai diverse ocazii, un robot ne solicită să demonstrăm că suntem oameni. Iar noi executăm ordinul cu viteză și fără să crâcnim, căci altfel nu ni se permite accesul la…propriile conturi.

Ce scrie presa internațională pe această temă

Presa internațională reacționează după avertismentele lui Elon Musk și ale unui grup de experți în tehnologie legate de riscurile pentru umanitate ale dezvoltării inteligenței artificiale (IA).

The Telegraph vorbește despre inteligența artificială „scăpată de sub control”. Printre ceilalți semnatari ai scrisorii deschise online se numără cercetători de la rivalii lui Musk, precum OpenAI, Google Deepmind și președintele organizației care gestionează „ceasul” menit să semnifice „cât de aproape suntem de a ne distruge lumea cu tehnologii periculoase create de noi înșine”.

The Hill notează de asemenea că grupul a făcut apel la dezvoltatorii de inteligență artificială să colaboreze cu factorii de decizie politică pentru a accelera elaborarea de reglementări care să guverneze tehnologia. Este nevoie de „instituții bine dotate” pentru a face față perturbărilor economice și politice.

Grupul a declarat că omenirea a întrerupt anterior dezvoltarea altor tehnologii cu posibile efecte „catastrofale” asupra societății, cum ar fi clonarea umană, cercetarea privind modificarea liniei germinale și eugenia, iar acum ar trebui să facă acest lucru din nou cu IA.

The New York Times amintește că înainte ca GPT-4 să fie lansat, OpenAI a cerut cercetătorilor externi să testeze utilizările periculoase ale sistemului.

Cercetătorii au arătat că sistemul ar putea fi convins să sugereze cum să cumpere arme de foc ilegale online, să descrie modalități de a fabrica substanțe periculoase din obiecte de uz casnic și să scrie mesaje pe Facebook pentru a convinge femeile că avortul este nesigur.

De asemenea, au descoperit că sistemul a fost capabil să angajeze un om pe internet și să învingă un test Captcha, care este utilizat pe scară largă pentru a identifica roboții online.

De ani, mulți cercetători în domeniul inteligenței artificiale, cadre universitare și directori din domeniul tehnologiei, inclusiv Musk, s-au îngrijorat că sistemele de inteligență artificială ar putea provoca daune și mai mari. Unii fac parte dintr-o vastă comunitate online numită raționaliști sau altruiști efectivi, care cred că IA ar putea distruge în cele din urmă omenirea.

Exit mobile version