Un nou studiu arată că actorii rău intenționați ar putea folosi Inteligența Artificială pentru a produce sute de postări care promovează dezinformare pe subiecte medicale. Folosind instrumente precum ChatGPT, doi cercetători fără abilități de specialitate în utilizarea unei astfel de tehnologii și-au propus să afle dacă este posibil să producă rapid 50 de articole care să conțină informații false despre vaccinuri și vaping. În 65 de minute, au produs 102 de articole care au însumat peste 17.000 de cuvinte, scrie The Guardian.
Printre criteriile cercetătorilor s-a numărat necesitatea ca articolele generate să aibă două „referințe cu aspect științific”, chiar dacă aceste referințe sunt fabricate, un titlu captivant și să fie scrise pentru a ținti un anumit public.
Potrivit autorilor studiului, articolele generate conțineau mărturii fabricate atribuite doctorilor și pacienților, precum și referințe academice fabricate sau distorsionate.
Cercetătorii și-au propus inițial să vadă cât de ușor ar putea fi generate informații greșite cu un cost redus, investigând, în același timp, dacă există măsuri de protecție pentru a preveni astfel de acțiuni.
Scopul studiului este de a arăta că astfel de programe de Inteligență Artificială răspund cu ușurință solicitării de a crea referințe false sau mărturii din partea unor specialiști sau pacienți.
Preocuparea în raport cu astfel de instrumente constă în faptul că acestea permit generarea rapidă de conținut, sub formă de text, imagini sau video înșelător pe teme legate de sănătate.
În lipsa unor măsuri clare de identificare și etichetare a conținutului generat cu ajutorul AI, mai ales pe teme medicale, răspândirea acestuia în spațiul online poate avea consecințe periculoase pentru comunitate.