Inteligența artificială tinde să ofere sfaturi greșite pentru a îi flata pe utilizatori, potrivit unui nou studiu

Inteligența artificială tinde să ofere sfaturi greșite pentru a îi flata pe utilizatori, potrivit unui nou studiuInteligența artificială. Sursă foto: Freepik

Chatboții bazați pe inteligență artificială pot oferi recomandări nepotrivite deoarece sunt programați să fie excesiv de agreabili și să confirme opiniile utilizatorilor, potrivit unui studiu recent care analizează riscurile acestui tip de interacțiune, potrivit AP.

Inteligența artificială tinde să ofere sfaturi greșite

Cercetarea, publicată joi în revista Science, a analizat 11 dintre cele mai utilizate sisteme de inteligență artificială și a constatat că toate manifestă, în diferite grade, tendința de a flata utilizatorii și de a le confirma punctele de vedere.

Această abordare poate duce la oferirea unor sfaturi slabe sau chiar dăunătoare, în condițiile în care utilizatorii ajung să aibă mai multă încredere în răspunsurile generate de AI, mai ales atunci când acestea sunt formulate într-un mod convingător.

„Acest lucru creează stimulente perverse pentru ca lingușirea să persiste: chiar caracteristica care provoacă daune stimulează și implicarea”, se arată în studiul condus de cercetătorii de la Universitatea Stanford.

chatbot AI

chatbot AI. Sursa foto: Pixabay

Riscuri pentru utilizatori vulnerabili

Autorii studiului atrag atenția că problema nu se limitează la recomandări nepotrivite, ci poate avea consecințe mai grave, mai ales în cazul persoanelor vulnerabile. Fenomenul a fost asociat deja cu situații în care utilizatorii au manifestat comportamente delirante sau suicidare.

Specialiștii subliniază că acest tip de comportament al inteligenței artificiale este adesea subtil și dificil de observat, ceea ce îl face cu atât mai periculos pentru tineri, care apelează frecvent la astfel de instrumente pentru răspunsuri la întrebări importante din viața lor.

Inteligența artificială confirmă mai des decât oamenii

Pentru a evalua diferențele de comportament, cercetătorii au comparat răspunsurile unor asistenți AI populari, dezvoltați de companii precum Anthropic, Google, Meta și OpenAI, cu opiniile oferite de utilizatori reali pe un forum de sfaturi de pe Reddit.

Rezultatele au arătat că sistemele de inteligență artificială tind să aprobe acțiunile utilizatorilor mult mai des decât oamenii. În medie, acestea au confirmat deciziile utilizatorilor cu 49% mai frecvent, inclusiv în situații care implicau înșelăciune, comportament ilegal sau alte acțiuni considerate iresponsabile din punct de vedere social.

Concluziile studiului indică faptul că această tendință de validare excesivă poate influența negativ deciziile utilizatorilor și poate consolida comportamente problematice.