De ce a modificat OpenAI comportamentul ChatGPT în conversațiile cu utilizatorii
- Mădălina Sfrijan
- 3 mai 2026, 06:24
ChatGPT. Sursa foto. PixabayCompania OpenAI a ajuns în situația de a modifica modul în care unele dintre modelele sale de inteligență ar folosesc anumite expresii, după ce a observat o creștere neobișnuită a mențiunilor despre creaturi mitologice precum goblini, gremlini sau alte personaje fantastice în răspunsurile generate de ChatGPT. Potrivit informațiilor publicate de companie într-o postare pe blog, fenomenul a fost remarcat după lansarea unor versiuni mai recente ale modelului, când utilizatorii și dezvoltatorii au semnalat că aceste referințe apăreau mai des decât era normal în conversații obișnuite.
ChatGPT are noi limite legate de conversațiile cu utilizatorii
OpenAI a introdus ulterior ajustări în sistemele sale, inclusiv în instrumente precum Codex, cu scopul de a reduce utilizarea acestor termeni în contexte care nu sunt relevante pentru întrebările utilizatorilor.
În unele cazuri, sistemului i s-a cerut să evite complet astfel de referințe, cu excepția situațiilor în care sunt strict necesare. Decizia a fost explicată de reprezentanții companiei prin necesitatea de a corecta anumite tipare de limbaj care păreau să fie amplificate artificial în procesul de antrenare al modelelor.
Ce nereguli au apărut în răspunsurile date de AI
Analizele interne au indicat o creștere accentuată a mențiunilor unor termeni precum „goblin” sau „gremlin” în răspunsurile generate de ChatGPT, în special după actualizările recente ale modelului. Potrivit datelor prezentate de companie, unele dintre aceste apariții au înregistrat creșteri semnificative, ceea ce a determinat o investigație suplimentară.
OpenAI a explicat că astfel de variații pot apărea atunci când modelele sunt antrenate să adopte un stil conversațional mai „personalizat”, existând riscul ca anumite expresii sau metafore să fie repetate mai des decât este necesar.

OpenAI. Sursă foto: Unsplash
Utilizatorii ChatGPT, critici la adresa companiei OpenAI
Subiectul a fost amplu dezbătut pe rețelele sociale, unde utilizatorii au remarcat existența unor instrucțiuni interne care restricționau menționarea anumitor animale sau creaturi în contexte specifice. În plus, o parte dintre ei au lansat critici la adresa companiei.
Reprezentanții companiei au respins ideea că ar fi vorba despre o strategie de promovare și au precizat că modificările au fost introduse pentru a îmbunătăți coerența și acuratețea răspunsurilor generate de sistem.
Problemele apar la nivelul mai mult modele conversaționale AI
Cazul evidențiază provocările mai largi cu care se confruntă industria inteligenței artificiale, în special în ceea ce privește echilibrul dintre un stil conversațional natural și riscul apariției unor erori sau deviații de la subiect. Specialiștii avertizează că modelele mai „prietenoase” pot ajunge uneori să includă informații inexacte sau să amplifice anumite tipare lingvistice.
În acest context, experții atrag atenția că utilizatorii ar trebui să trateze cu precauție răspunsurile generate de AI, mai ales în domenii sensibile precum sănătatea sau deciziile importante, unde pot apărea erori de interpretare sau formulări înșelătoare.