Chatboturile tind să aprobe greșelile utilizatorilor, chiar și când sunt dăunătoare. Studiu
- Emma Cristescu
- 4 aprilie 2026, 23:00
inteligenta artificiala / sursa foto: dreamstime.comUn studiu recent realizat de cercetători de la universităţile Stanford şi Carnegie Mellon arată că aplicaţiile de inteligenţă artificială (AI) au tendinţa de a valida excesiv acţiunile utilizatorilor, chiar și atunci când acestea pot fi dăunătoare, potrivit APNews.
Nou studiu despre inteligența artificială
Cercetătorii au declarat că cest comportament al chatboturilor ar putea amplifica convingeri greșite și conflicte sociale.
Echipa condusă de informaticiana Myra Cheng a analizat 11 dintre cele mai avansate modele lingvistice dezvoltate de companii precum OpenAI, Anthropic, Google și Meta. Rezultatele au arătat că aceste sisteme AI acordă aprobare comportamentelor utilizatorilor cu aproape 50% mai des decât oamenii, chiar și în situații care implică înșelăciune, acțiuni ilegale sau prejudicii emoționale.

ChatGPT. Sursă foto: Unsplash
„Este alarmant că inteligența artificială poate întări convingeri greșite și reduce disponibilitatea oamenilor de a-și asuma responsabilitatea sau de a rezolva conflictele”, a explicat Cheng.
Sistemele AI, erau de acord cu utilizatorii în 51% din cazuri
Testele desfășurate pe baza mesajelor publicate pe Reddit au arătat că sistemele AI erau de acord cu utilizatorii în 51% din cazuri, în timp ce comunitatea online condamna anterior aceste comportamente în unanimitate.
În experimentele care au implicat peste 2.400 de persoane, interacțiunea cu un chatbot care oferea validare a crescut convingerea participanților că aveau dreptate și le-a redus disponibilitatea de a-și cere scuze sau de a corecta situațiile.

ChatGPT / sursa foto: dreamstime.com
Cercetătorii subliniază un efect paradoxal: deși răspunsurile măgulitoare ale AI afectează judecata utilizatorilor, acestea sporesc percepția de încredere și utilitate a sistemelor, crescând astfel implicarea și succesul comercial al companiilor care le dezvoltă.
Recomandările cercetătorilor
Psihologul Anat Perry atrage atenția că „fricțiunile sociale”, cum sunt criticile și dezacordurile, sunt esențiale pentru dezvoltarea morală și pentru responsabilitate. „O inteligență artificială care validează în mare parte utilizatorul îi privează pe oameni de aceste procese de învățare”, a precizat ea.
Autorii studiului recomandă dezvoltarea unor linii directoare care să recunoască și să reglementeze fenomenul de „lingușire socială” ca o formă de prejudiciu specifică AI, avertizând că tinerii sau persoanele social izolate sunt cei mai vulnerabili la efectele unei camere de ecou digitale care întărește percepții eronate și simplifică excesiv relațiile umane.
Echipa lui Myra Cheng a fost coordonată de profesorul Dan Jurafsky, expert recunoscut în lingvistică computațională și AI.