Chatboturile tind să aprobe greșelile utilizatorilor, chiar și când sunt dăunătoare. Studiu

Chatboturile tind să aprobe greșelile utilizatorilor, chiar și când sunt dăunătoare. Studiuinteligenta artificiala / sursa foto: dreamstime.com

Un studiu recent realizat de cercetători de la universităţile Stanford şi Carnegie Mellon arată că aplicaţiile de inteligenţă artificială (AI) au tendinţa de a valida excesiv acţiunile utilizatorilor, chiar și atunci când acestea pot fi dăunătoare, potrivit APNews.

Nou studiu despre inteligența artificială

Cercetătorii au declarat că cest comportament al chatboturilor ar putea amplifica convingeri greșite și conflicte sociale.

Echipa condusă de informaticiana Myra Cheng a analizat 11 dintre cele mai avansate modele lingvistice dezvoltate de companii precum OpenAI, Anthropic, Google și Meta. Rezultatele au arătat că aceste sisteme AI acordă aprobare comportamentelor utilizatorilor cu aproape 50% mai des decât oamenii, chiar și în situații care implică înșelăciune, acțiuni ilegale sau prejudicii emoționale.

ChatGPT

ChatGPT. Sursă foto: Unsplash

„Este alarmant că inteligența artificială poate întări convingeri greșite și reduce disponibilitatea oamenilor de a-și asuma responsabilitatea sau de a rezolva conflictele”, a explicat Cheng.

Sistemele AI, erau de acord cu utilizatorii în 51% din cazuri

Testele desfășurate pe baza mesajelor publicate pe Reddit au arătat că sistemele AI erau de acord cu utilizatorii în 51% din cazuri, în timp ce comunitatea online condamna anterior aceste comportamente în unanimitate.

În experimentele care au implicat peste 2.400 de persoane, interacțiunea cu un chatbot care oferea validare a crescut convingerea participanților că aveau dreptate și le-a redus disponibilitatea de a-și cere scuze sau de a corecta situațiile.

ChatGPT

ChatGPT / sursa foto: dreamstime.com

Cercetătorii subliniază un efect paradoxal: deși răspunsurile măgulitoare ale AI afectează judecata utilizatorilor, acestea sporesc percepția de încredere și utilitate a sistemelor, crescând astfel implicarea și succesul comercial al companiilor care le dezvoltă.

Recomandările cercetătorilor

Psihologul Anat Perry atrage atenția că „fricțiunile sociale”, cum sunt criticile și dezacordurile, sunt esențiale pentru dezvoltarea morală și pentru responsabilitate. „O inteligență artificială care validează în mare parte utilizatorul îi privează pe oameni de aceste procese de învățare”, a precizat ea.

Autorii studiului recomandă dezvoltarea unor linii directoare care să recunoască și să reglementeze fenomenul de „lingușire socială” ca o formă de prejudiciu specifică AI, avertizând că tinerii sau persoanele social izolate sunt cei mai vulnerabili la efectele unei camere de ecou digitale care întărește percepții eronate și simplifică excesiv relațiile umane.

Echipa lui Myra Cheng a fost coordonată de profesorul Dan Jurafsky, expert recunoscut în lingvistică computațională și AI.