28 aprilie 2024, 14:06

Studiu: În aproape 30% din cazuri, oamenii nu pot depista vorbirea generată artificial

Oamenii sunt capabili să detecteze vorbirea generată artificial în doar 73% din timp, a constatat un studiu, cu aceleași niveluri de acuratețe identificate la vorbitorii de engleză și mandarină, scrie The Guardian.

Cercetătorii de la University College London au folosit un algoritm de transformare a textului în vorbire antrenat pe două seturi de date disponibile public, unul în engleză și celălalt în mandarină, pentru a genera 50 de mostre de vorbire deepfake (fals profund) în fiecare limbă. Deepfake-urile, o formă de inteligență artificială generativă, sunt medii sintetice care sunt create pentru a semăna cu vocea unei persoane reale sau cu aspectul său.

Mostrele de sunet au fost redate pentru 529 de participanți pentru a vedea dacă au putut detecta eșantionul real din discursul fals. Participanții au putut identifica discursurile false doar în 73% din timp. Acest număr s-a îmbunătățit ușor după ce participanții au primit instruire pentru a recunoaște aspectele discursului deepfake. Studiul este primul care evaluează capacitatea umană de a detecta vorbirea generată artificial într-o altă limbă decât engleza.

Kimberly Mai, autorul principal al studiului, a declarat: „În studiul nostru, am arătat că instruirea oamenilor pentru a detecta deepfake-urile nu este neapărat o modalitate fiabilă de a-i ajuta să devină mai buni. Din păcate, experimentele noastre arată, de asemenea, că în momentul de față nici detectoarele automate nu sunt de încredere. Sunt foarte buni la detectarea deepfake-urilor dacă au văzut exemple similare în timpul fazei de antrenament, dacă difuzorul este același sau clipurile sunt înregistrate într-un mediu audio similar, de exemplu. Dar nu sunt de încredere atunci când există modificări în condițiile audio de testare, cum ar fi dacă există un difuzor diferit”. Ea a punctat că este important să se îmbunătățească detectoarele automate de vorbire deepfake, iar organizațiile să „se gândească la strategii pentru a atenua amenințarea pe care o reprezintă conținutul deepfake”.

Dr. Karl Jones, șeful departamentului de inginerie la Universitatea John Moores din Liverpool, a avertizat că sistemul de justiție al Regatului Unit nu este configurat pentru a proteja împotriva utilizării deepfake-urilor. „Discursul fals este aproape crima perfectă – pentru că nu știi că s-a făcut”, a spus el.

Sam Gregory, directorul executiv al Witness, care a creat inițiative privind deepfake-urile, manipularea media și inteligența artificială generativă, consideră că o altă amenințare sunt oamenii care susțin că un sunet real este fals și se bazează pe faptul că nu există instrumente larg răspândite pentru a se verifica.  El a spus: „La Witness, vorbim despre un decalaj de echitate în detecție. Oamenii care au nevoie de capacitatea de a detecta – jurnaliştii şi verificatorii de fapte, şi societatea civilă şi oficialii electorali – sunt cei care nu au acces la aceste instrumente [de detectare]. Aceasta este o problemă uriașă care se va agrava dacă nu investim în acele abilități și resurse. Este posibil să nu fie nevoie de instrumente de detectare disponibile pentru toată lumea, pentru că, de asemenea, ar urma să fie mai puțin robuste. Dar trebuie să ne gândim la investiția în sprijinirea intermediarilor”.


ARTICOLE ASEMĂNĂTOARE

Comentariile sunt oprite pentru acest articol