9 decembrie 2024, 6:54

Un psiholog explică modul în care inteligența artificială și algoritmii ne schimbă viețile

Omul de știință comportamentală Gerd Gigerenzer a petrecut decenii studiind modul în care oamenii fac alegeri. Opinia sa este că prea mulți dintre noi lasă acum inteligența artificială (AI)  să ia decizii…iar acesta nu este un lucru bun.

Într-o epocă a ChatGPT, algoritmii de calculator și inteligența artificială sunt din ce în ce mai mult integrați în viețile noastre, alegând conținutul care ne este afișat online, sugerând muzica pe care o ascultăm și răspunzând la întrebările noastre.

Este posibil ca acești algoritmi să ne schimbe lumea și comportamentul în moduri pe care nu le înțelegem pe deplin, spune psihologul și omul de știință comportamentală Gerd Gigerenzer, directorul Centrului Harding pentru cunoașterea riscurilor de la Universitatea din Potsdam, Germania. Anterior director al Centrului pentru comportament adaptiv și cogniție la Institutul Max Planck pentru dezvoltare umană, acesta a efectuat cercetări de-a lungul deceniilor care au contribuit la formarea înțelegerii modului în care oamenii fac alegeri atunci când se confruntă cu incertitudinea.

În cea mai recentă carte a sa, „How to Stay Smart in a Smart World”, Dr. Gigerenzer analizează modul în care algoritmii ne modelează viitorul – și de ce este important să ne amintim că aceștia nu sunt oameni. El a vorbit cu un reporter Wall Street Journal în cadrul podcast-ului The Future of Everything.

Termenul de algoritm este prezent în toate discuțiile în zilele noastre. Dar, de fapt, despre ce vorbim atunci când discutăm despre acești algoritmi?

Într-adevăr, domeniul este imens și este important să distingem despre ce vorbim. Una dintre intuițiile din cercetările mele la Institutul Max Planck este că, dacă aveți o situație stabilă și bine definită, atunci algoritmii complecși, cum ar fi rețelele neuronale profunde, sunt cu siguranță mai buni decât performanța umană. Exemple sunt [jocurile] șah și Go, care sunt stabile. Dar dacă aveți o problemă care nu este stabilă – de exemplu, dacă doriți să preziceți un virus, cum ar fi un coronavirus – atunci nu vă atingeți de algoritmii complecși. [Confruntarea cu] incertitudinea – acesta este mai degrabă modul în care funcționează mintea umană, de a identifica unul sau două indicii importante și de a ignora restul. În acest tip de problemă nedefinită, algoritmii complecși nu funcționează bine. Eu numesc acest lucru „principiul lumii stabile” și vă ajută ca un prim indiciu despre ceea ce poate face inteligența artificială. De asemenea, vă spune că, pentru a obține maximum de la AI, trebuie să facem lumea mai previzibilă.

„Oamenii pierd controlul în favoarea guvernelor și a companiilor de tehnologie”

Așadar, după toate aceste decenii de informatică, oare algoritmii sunt, în cele din urmă, tot niște calculatoare care rulează ecuații din ce în ce mai complexe?

Ce altceva ar putea fi? O rețea neuronală profundă are multe, multe straturi, dar acestea sunt tot mașini de calcul. Ele pot face mult mai multe decât până acum cu ajutorul tehnologiei video. Ele pot picta, pot construi texte. Dar asta nu înseamnă că înțeleg textul în sensul în care îl înțeleg oamenii.

Îi ajută pe oameni să înțeleagă modul în care acești algoritmi iau decizii?

Transparența este extrem de importantă și cred că ar trebui să fie un drept al omului. Dacă este transparentă, poți să o modifici și să începi din nou să gândești [pentru] tine însuți, în loc să te bazezi pe un algoritm care nu este mai bun decât o grămadă de muncitori prost plătiți. Așadar, trebuie să înțelegem situația în care judecata umană este necesară și este de fapt mai bună. Și, de asemenea, trebuie să fim atenți să nu ne confruntăm cu o situație în care companiile de tehnologie vând algoritmi de tip „cutie neagră” care determină părți din viața noastră. Este vorba despre orice, inclusiv despre comportamentul tău social și politic, iar apoi oamenii pierd controlul în favoarea guvernelor și a companiilor de tehnologie.

 Scrieți că „tehnologia digitală poate înclina cu ușurință balanța spre sisteme autocratice”. De ce spuneți asta? Și în ce fel diferă aceasta de tehnologiile informaționale din trecut?

Acest tip de pericol este unul real. Printre toate beneficiile pe care le are, unul dintre vicii este propensiunea la supraveghere din partea guvernelor și a companiilor de tehnologie. Dar oamenii nu mai citesc politicile de confidențialitate, așa că nu știu. Și, de asemenea, politicile de confidențialitate sunt configurate în așa fel încât nu le poți citi cu adevărat. Sunt prea lungi și complicate. Trebuie să recuperăm controlul.

„Vrem să ni se permită din nou să plătim pentru noi înșine!”

Deci, cum ar trebui să fim inteligenți în legătură cu așa ceva?

Gândiți-vă la o cafenea din orașul vostru natal care servește cafea gratis. Toată lumea merge acolo pentru că este gratis, iar toate celelalte cafenele dau faliment. Așa că nu mai ai de ales, dar cel puțin îți primești cafeaua gratuită și te bucuri de conversațiile cu prietenii tăi. Dar pe mese sunt microfoane, iar pe pereți sunt camere video care înregistrează tot ce spui, fiecare cuvânt și cui, și le trimit la analiză. Cafeneaua este plină de vânzători care te întrerup tot timpul pentru a-ți oferi produse personalizate. Cam aceasta este situația în care te afli atunci când ești pe Facebook, Instagram sau alte platforme. [Meta Platforms Inc., compania mamă a Facebook și Instagram, a refuzat să comenteze]. În această cafenea, nu tu ești clientul. Sunteți produsul. Așa că vrem să avem o cafenea în care să ni se permită din nou să plătim [pentru] noi înșine, astfel încât să fim noi clienții.

Am văzut cum toată această infrastructură în jurul anunțurilor personalizate a fost integrată în infrastructura internetului. Și se pare că ar fi nevoie de intervenții destul de serioase pentru a face ca acest lucru să dispară. Dacă sunteți realist, unde credeți că ne vom îndrepta în următorul deceniu sau cam așa ceva cu tehnologia, inteligența artificială și supravegherea?

În general, am mai multă speranță că oamenii își dau seama că nu este o idee bună să le dai datele tale și responsabilitatea pentru propriile decizii companiilor de tehnologie care le folosesc pentru a face bani de la agenții de publicitate. Acesta nu poate fi viitorul nostru. Plătim peste tot cu banii noștri [proprii] și de aceea noi suntem clienții și deținem controlul. Există un adevărat pericol ca din ce în ce mai mulți oameni să fie somnambulii supravegherii și să accepte pur și simplu tot ceea ce este mai convenabil.

Dar pare atât de greu, când totul este atât de convenabil, să citesc politicile de confidențialitate și să fac cercetări cu privire la acești algoritmi care îmi afectează viața. Cum pot să mă împotrivesc acestui lucru?

Cel mai convenabil lucru nu este să gândești. Iar alternativa este să începi să gândești. Cea mai importantă [tehnologie de care trebuie să fim conștienți] este un mecanism pe care psihologii îl numesc „întărire intermitentă”. Primești o întărire, cum ar fi un „Like”, dar nu știi niciodată când o vei primi. Oamenii continuă să se întoarcă pe platformă și să își verifice Like-urile. Acest lucru a schimbat cu adevărat mentalitatea și i-a făcut pe oameni dependenți. Cred că este foarte important ca toată lumea să înțeleagă aceste mecanisme și modul în care cineva devine dependent. Astfel încât să puteți recăpăta controlul, dacă doriți.


ARTICOLE ASEMĂNĂTOARE

Comentariile sunt oprite pentru acest articol