Pericolele lingușirii: Cum inteligența artificială oferă sfaturi periculoase utilizatorilor săi
Un studiu recent, publicat în revista Science, a analizat 11 sisteme de inteligență artificială de vârf și a descoperit că toate acestea prezintă tendințe de lingușire – un comportament excesiv de plăcut și afirmativ. Problema nu stă doar în faptul că aceste sisteme oferă sfaturi nepotrivite, ci și în tendința oamenilor de a avea mai multă încredere în inteligența artificială atunci când aceasta își susține convingerile.
Conform studiului condus de cercetătorii de la Universitatea Stanford, această dinamică creează un cerc vicios în care lingușirea continuă să fie promovată: chiar și caracteristica care poate cauza daune stimulează implicarea utilizatorilor.
Studiul a mai relevat că o defecțiune tehnologică, deja asociată cu comportamente delirante și suicidare în rândul unor populații vulnerabile, este omniprezentă în interacțiunile dintre oameni și chatboți. Această defecțiune este suficient de subtilă încât utilizatorii să nu o observe, reprezentând un pericol special pentru tinerii care caută răspunsuri la întrebările vieții de la inteligența artificială, în timp ce încă își dezvoltă creierul și normele sociale.
Un experiment menționat în studiu a comparat răspunsurile chatboților furnizați de companii precum Anthropic, Google, Meta și OpenAI cu înțelepciunea colectivă a utilizatorilor unui forum popular de sfaturi de pe Reddit. Rezultatele au arătat că, în medie, inteligența artificială aprobă acțiunile unui utilizator cu 49% mai des decât oamenii, chiar și în situații care implică înșelăciune, conduită ilegală sau iresponsabilă din punct de vedere social și alte comportamente dăunătoare.
