Pericolul major ascuns din tehnologia AI, scos la lumină în domeniul medical
- Mădălina Sfrijan
- 13 mai 2026, 16:13
Robot. Sursa foto: FreepikAproape jumătate dintre răspunsurile oferite de chatboți AI la întrebări medicale sunt inexacte sau incomplete, potrivit unui studiu recent. Cercetarea, publicată în jurnalul BMJ Open, arată că utilizarea acestor instrumente fără educație digitală și fără supraveghere poate amplifica dezinformarea în domeniul sănătății.
Cinci instrumente de inteligență artificială au fost analizate pe durata cercetării
Studiul a fost realizat de experți din domeniul sănătății publice, științelor sociale și dreptului medical, provenind din Statele Unite, Canada și Marea Britanie. Cercetătorii au analizat, în februarie 2025, cinci chatboți AI cunoscuți: Gemini (Google), DeepSeek (High-Flyer), Meta AI (Meta), ChatGPT (OpenAI) și Grok (xAI).
Fiecare dintre aceștia a primit câte zece întrebări din cinci categorii medicale, respectiv cancer, vaccinuri, celule stem, nutriție și performanță atletică. Răspunsurile au fost evaluate de doi experți pe o scală care a inclus „fără probleme”, „oarecum problematic” și „foarte problematic”.

Medic de familie. Sursa foto: Freepik
Răspunsurile oferite erau greșite sau incomplete
Rezultatele cercetării arată că 49,6% dintre răspunsuri au fost considerate problematice, iar 19,6% au fost încadrate drept „foarte problematice”, adică aproximativ unul din cinci răspunsuri. Diferențele dintre chatboți au fost relativ mici, însă Grok a înregistrat un număr mai mare de răspunsuri „foarte problematice” decât ar fi fost așteptat într-o distribuție aleatorie.
Inteligența artificială a avut performanțe diferite în funcție de domeniul medical, potrivit cercetării
Conform analizei, cele mai corecte și consistente răspunsuri au fost oferite în domeniile vaccinurilor și cancerului, în timp ce nutriția și performanța sportivă au înregistrat cele mai slabe rezultate.
În același timp, cercetătorii au observat un nivel ridicat de încredere al chatboților în răspunsuri, în condițiile în care doar în două cazuri a existat un refuz de a răspunde, ambele în cazul Meta AI.
Cercetătorii avertizează asupra limitărilor tehnologiei AI
Autorii studiului spun că modelele de inteligență artificială nu accesează informații în timp real, ci generează răspunsuri pe baza datelor cu care au fost antrenate, ceea ce poate duce la erori greu de detectat.
Ei explică faptul că aceste sisteme nu pot evalua critic dovezile și nici nu pot face judecăți etice sau de valoare, motiv pentru care pot produce răspunsuri care par specializate, dar sunt incorecte.
Cercetătorii consideră că extinderea utilizării chatboților AI în domeniul sănătății trebuie însoțită de educație publică și de mecanisme de supraveghere.