ChatGPT dă răspunsuri contradictorii și greșite la ipoteze științifice, potrivit unui nou studiu
- Răzvan Scarlat
- 21 martie 2026, 20:17
ChatGPT / sursa foto: dreamstime.comUn studiu recent arată că ChatGPT prezintă erori frecvente și inconsistență atunci când evaluează ipoteze științifice. Performanța reală a AI este mult mai redusă decât arată procentajele brute de corectitudine, relatează sciencedaily.com.
Cercetătorii au cercetat capacitatea ChatGPT de a evalua ipoteze științifice
Un studiu realizat de profesorul Mesut Cicek de la Washington State University și echipa sa a pus la încercare capacitatea ChatGPT de a determina dacă ipoteze din articole științifice erau adevărate sau false. Cercetătorii au selectat 719 ipoteze publicate în jurnale de business după 2021 și le-au testat cu versiunea gratuită ChatGPT-3.5 în 2024 și cu ChatGPT-5 mini în 2025. Fiecare ipoteză a fost evaluată de zece ori pentru a măsura consistența răspunsurilor.
Scopul a fost să se verifice dacă AI poate judeca corect ipotezele, având în vedere că multe dintre ele implică factori multipli și nuanțe complexe. Reducerea acestor întrebări la simple răspunsuri “adevărat” sau “fals” necesită raționament atent, ceea ce face testul provocator pentru sistemele de inteligență artificială.
ChatGPT are performanță modestă și probleme de consistență
Rezultatele au arătat că, la prima evaluare, din 2024, ChatGPT a răspuns corect la 76,5% din ipoteze. Testul din 2025 a înregistrat o ușoară creștere, până la 80%. Totuși, după ajustarea pentru ghicit aleator, performanța reală a modelului scade semnificativ, fiind doar aproximativ 60% peste nivelul șansei. În mod special, sistemul a identificat corect ipotezele false doar în 16,4% dintre cazuri.
Consistența răspunsurilor a fost și ea limitată. Chiar când aceeași întrebare a fost pusă de zece ori, ChatGPT a oferit aceleași răspunsuri doar în 73% dintre cazuri. Profesorul Cicek a declarat: „Am folosit 10 prompturi cu exact aceeași întrebare. Totul era identic. Răspundea ‘adevărat’. Apoi, spune ‘fals’. E adevărat, e fals, fals, adevărat. Au fost mai multe cazuri în care au fost cinci adevărat și cinci fals.” Această fluctuație ridică semne de întrebare asupra fiabilității AI în contexte critice.

ChatGPT. Sursă foto: Unsplash
Limitele înțelegerii și recomandările cercetătorilor
Autorii studiului subliniază diferența între capacitatea ChatGPT de a genera limbaj fluent și abilitatea sa de a înțelege concepte. Cicek explică: „Instrumentele AI actuale nu înțeleg lumea așa cum o facem noi – nu au un ‘creier’. Ele doar memorizează și pot oferi anumite informații, dar nu înțeleg despre ce vorbesc.”
Studiul publicat în Rutgers Business Review recomandă prudență în utilizarea AI pentru decizii importante și sugerează verificarea informațiilor generate de astfel de sisteme. Echipa de cercetători include, pe lângă Mesut Cicek (Washington State University), pe Sevincgul Ulu (Southern Illinois University), Can Uslay (Rutgers University) și Kate Karniouchina (Northeastern University).
Cicek arată și că aceste rezultate sunt similare cu cele obținute în experimente cu alte instrumente AI și reflectă limitele generale ale modelelor de limbaj: „Fiți mereu sceptici. Nu sunt împotriva AI. Eu îl folosesc. Dar trebuie să fiți foarte atenți.”
Concluzie privind utilizarea ChatGPT la ipoteze științifice
Deși ChatGPT poate genera texte convingătoare și aparent corecte, studiul arată că performanța sa la evaluarea ipotezelor științifice este limitată și adesea inconsistentă.
Experții recomandă verificarea atentă a oricărei informații obținute de la AI și atrag atenția că aceste sisteme nu gândesc sau înțeleg conceptele în modul în care o fac oamenii.