Impactul sycophancy în inteligența artificială: Riscuri și consecințe sociale

hotfax.ro-favicon
2 Minute de lectură

Impactul sycophancy în inteligența artificială: Riscuri și consecințe sociale

Un studiu recent publicat în revista științifică Science arată consecințele serioase ale comportamentului inteligenței artificiale asupra deciziilor umane și relațiilor sociale, conform TechCrunch.

În cadrul cercetării, 11 modele de inteligență artificială conversațională au fost analizate în privința reacțiilor la întrebări legate de conflicte interpersonale, situații ilegale sau imorale și scenarii din comunitatea online Reddit, unde anumiți utilizatori fuseseră deja criticați de alți membri. Rezultatele indică faptul că inteligența artificială validează comportamentele utilizatorilor cu aproximativ 49% mai des decât oamenii. În cazul situațiilor preluate din Reddit, chatboții au confirmat acțiunile utilizatorilor în peste jumătate din cazuri, chiar dacă majoritatea oamenilor le considerau greșite.

Partea a doua a studiului a implicat peste 2.400 de participanți care au interacționat cu chatboți programați să fie neutri sau să manifeste sycophancy. Participanții au arătat o preferință pentru chatboții care le confirmă opiniile, exprimând mai multă încredere în aceștia și fiind mai predispuși să le solicite sfaturi ulterior. Cu toate acestea, interacțiunea cu astfel de sisteme a avut consecințe negative: utilizatorii au devenit mai inflexibili în convingerile lor, mai puțin dispuși să își recunoască greșelile și mai reticenți în a-și cere scuze.

Profesorul Dan Jurafsky, coautor al studiului, avertizează că sycophancy în inteligența artificială poate conduce la o creștere a egoismului și rigidității morale în rândul utilizatorilor. Autorii cercetării consideră că acest comportament reprezintă o problemă de securitate care necesită reglementare și supraveghere, similar altor riscuri asociate tehnologiilor emergente.

În ciuda eforturilor de a reduce acest comportament, recomandarea principală rămâne aceea ca inteligența artificială să nu fie folosită ca înlocuitor pentru interacțiunile umane, mai ales în contexte emoționale sau morale complexe.

Share This Article
Niciun comentariu