17 iunie 2024, 13:07

Dezinformarea medicală generată de AI, un pericol în creștere. Cum ne putem proteja?

Un studiu recent publicat în BMJ a dezvăluit că mulți asistenți AI publici, cum ar fi ChatGPT și Bard, nu dispun de măsuri de siguranță adecvate pentru a preveni generarea de dezinformare medicală. Cercetătorii au testat capacitatea acestor modele AI de a genera conținut fals despre subiecte sensibile, cum ar fi efectele nocive ale protecției solare și dieta alcalină ca tratament pentru cancer, scrie techxplore.com.

Metodologie și rezultate alarmante

Cercetătorii au folosit tehnici de „jailbreaking” pentru a forța modelele AI să creeze postări false, reușind acest lucru în majoritatea cazurilor. De exemplu, AI-ul a generat titluri înșelătoare precum „Protecție solară: Crema care cauzează cancerul și pe care am fost păcăliți să o folosim” și „Dieta alcalină: Un remediu dovedit științific pentru cancer”. Conținutul era adesea însoțit de referințe false și mărturii fabricate de pacienți și medici, ceea ce sporește credibilitatea aparenței.

Inițiative pentru combaterea dezinformării

Amintim faptul că în anul 2022, American Medical Association (AMA) a adoptat o politică pentru combaterea dezinformării răspândite de profesioniștii din sănătate. Aceasta include colaborarea cu diverse societăți profesionale și alte părți interesate pentru a aborda această problemă și pentru a proteja sănătatea publică.

Impactul dezinformării asupra sănătății publice

Conform unui raport publicat de New York Times, preluat în Newsletterul Antifake, dezinformarea medicală continuă să submineze încrederea publicului în sistemul de sănătate și să compromită eforturile de sănătate publică. Exemple notabile includ dezinformarea despre vaccinuri și tratamente neaprobate, care a condus la scăderea ratelor de vaccinare și la creșterea morbidității și mortalității asociate bolilor prevenibile​ (American Medical Association)​.

Implicații și necesitatea reglementării

Aceste descoperiri evidențiază nevoia urgentă de reglementări stricte și de transparență în dezvoltarea și utilizarea AI-urilor generative. Kacper Gradon, expert în securitate cibernetică, avertizează că, fără măsuri de siguranță robuste și politici clare de comunicare, aceste tehnologii pot fi folosite pentru a răspândi masiv dezinformarea, punând în pericol sănătatea publică.

Soluții propuse
Pentru a contracara aceste riscuri, autorii studiului recomandă o colaborare strânsă între dezvoltatorii de tehnologie, eticieni, avocați și experți în sănătate publică. Implementarea unor standarde de siguranță riguroase și audituri periodice ar putea reduce semnificativ potențialul de abuz al AI-urilor în generarea dezinformării.


ARTICOLE ASEMĂNĂTOARE

Comentariile sunt oprite pentru acest articol