12 mai 2024, 14:09

Sistemul SAFE de la Google DeepMind promite să schimbe jocul în lupta împotriva dezinformării AI

Google DeepMind a prezentat un sistem de IA, denumit SAFE (Search-Augmented Factuality Evaluator), care promite să redefinească lupta împotriva dezinformării AI. Potrivit studiului, SAFE poate analiza textele generate de inteligența artificială, identificând și validând faptele prin comparare cu rezultatele căutării Google.

Ce face SAFE diferit? Pe lângă faptul că este mai rapid și costă mai puțin decât metodele obișnuite de verificare a faptelor, sistemul impresionează prin acuratețea sa, fiind pe aceeași lungime de undă cu evaluările umane în 72% din cazuri. Atunci când vine vorba de dezacorduri, se dovedește a fi mai de încredere decât verificatorii umani în 76% din situații.

Deși cercetarea sugerează că agenții LLM pot atinge performanțe „superumane” în evaluarea acurateței, această afirmație a stârnit dezbateri în comunitatea științifică. Critici precum Gary Marcus, un cunoscut cercetător în domeniul inteligenței artificiale, subliniază că termenul „superuman” ar putea fi înșelător, sugerând că, pentru a demonstra cu adevărat o performanță superumană, SAFE ar trebui comparat nu doar cu lucrătorii crowdsourcing, ci și cu verificatorii de fapte experți.

SAFE reprezintă un pas important spre combaterea dezinformării, însă dezvoltarea unor tehnologii atât de influente necesită transparență și stabilirea unor standarde sau criterii de performanță prin care tehnologiile de inteligență artificială (IA) pot fi evaluate și comparate. În acest sens, Google DeepMind a pus la dispoziția publicului codului sursă și a setului de date LongFact.

Credit: VentureBeat creat cu Midjourney


ARTICOLE ASEMĂNĂTOARE

Comentariile sunt oprite pentru acest articol