Pericolul major ascuns din tehnologia AI, scos la lumină în domeniul medical

Pericolul major ascuns din tehnologia AI, scos la lumină în domeniul medicalRobot. Sursa foto: Freepik

Aproape jumătate dintre răspunsurile oferite de chatboți AI la întrebări medicale sunt inexacte sau incomplete, potrivit unui studiu recent. Cercetarea, publicată în jurnalul BMJ Open, arată că utilizarea acestor instrumente fără educație digitală și fără supraveghere poate amplifica dezinformarea în domeniul sănătății.

Cinci instrumente de inteligență artificială au fost analizate pe durata cercetării

Studiul a fost realizat de experți din domeniul sănătății publice, științelor sociale și dreptului medical, provenind din Statele Unite, Canada și Marea Britanie. Cercetătorii au analizat, în februarie 2025, cinci chatboți AI cunoscuți: Gemini (Google), DeepSeek (High-Flyer), Meta AI (Meta), ChatGPT (OpenAI) și Grok (xAI).

Fiecare dintre aceștia a primit câte zece întrebări din cinci categorii medicale, respectiv cancer, vaccinuri, celule stem, nutriție și performanță atletică. Răspunsurile au fost evaluate de doi experți pe o scală care a inclus „fără probleme”, „oarecum problematic” și „foarte problematic”.

medic familie

Medic de familie. Sursa foto: Freepik

Răspunsurile oferite erau greșite sau incomplete

Rezultatele cercetării arată că 49,6% dintre răspunsuri au fost considerate problematice, iar 19,6% au fost încadrate drept „foarte problematice”, adică aproximativ unul din cinci răspunsuri. Diferențele dintre chatboți au fost relativ mici, însă Grok a înregistrat un număr mai mare de răspunsuri „foarte problematice” decât ar fi fost așteptat într-o distribuție aleatorie.

Inteligența artificială a avut performanțe diferite în funcție de domeniul medical, potrivit cercetării

Conform analizei, cele mai corecte și consistente răspunsuri au fost oferite în domeniile vaccinurilor și cancerului, în timp ce nutriția și performanța sportivă au înregistrat cele mai slabe rezultate.

În același timp, cercetătorii au observat un nivel ridicat de încredere al chatboților în răspunsuri, în condițiile în care doar în două cazuri a existat un refuz de a răspunde, ambele în cazul Meta AI.

Cercetătorii avertizează asupra limitărilor tehnologiei AI

Autorii studiului spun că modelele de inteligență artificială nu accesează informații în timp real, ci generează răspunsuri pe baza datelor cu care au fost antrenate, ceea ce poate duce la erori greu de detectat.

Ei explică faptul că aceste sisteme nu pot evalua critic dovezile și nici nu pot face judecăți etice sau de valoare, motiv pentru care pot produce răspunsuri care par specializate, dar sunt incorecte.

Cercetătorii consideră că extinderea utilizării chatboților AI în domeniul sănătății trebuie însoțită de educație publică și de mecanisme de supraveghere.