Inteligența artificială ar putea provoca daune iremediabile industriei sănătății 

Inteligența artificială ar putea provoca daune iremediabile industriei sănătății  Sursa foto Arhiva EVZ

Pe măsură ce inteligența artificială continuă să se dezvolte, unele studii au susținut că ar trebui să existe prudență până când se formează niște instrumente prin care inteligența artificială să promoveze bunăstarea umană, siguranța și autonomia. 

ChatGPT, Bard și Bert sunt în prezent unele dintre cele mai populare instrumente de limbaj folosite până în prezent. În unele cazuri, s-a dovedit că chatboții rivalizează cu medicii în ceea ce privește calitatea răspunsurilor la întrebările medicale. În timp ce OMS recunoaște că există „un entuziasm” cu privire la potențialul de a utiliza acești roboți pentru nevoi legate de sănătate, organizația rămâne totuși precaută în privința riscurilor.

Agenția a avertizat că adoptarea prea rapidă a sistemelor de inteligență artificială ar putea duce la „erori ale lucrătorilor din domeniul sănătății” și ar putea „provoca daune pacienților”. OMS a avertizat că LLM-urile ar putea fi instruiți să genereze informații inexacte care ar putea prezenta riscuri pentru pacienți.

 Instrumentele de limbaj 

De asemenea, există riscul ca aceste modele de inteligență artificială să genereze răspunsuri incorecte la întrebările legate de sănătate. „LLM-urile pot fi utilizate greșit pentru a genera și a disemina informații extrem de convingătoare sub formă de conținut text, audio sau video, care sunt dificil de înțeles pentru public”, a declarat OMS.

Ne puteți urmări și pe Google News

O altă preocupare este că LLM-urile ar putea fi instruite cu privire la date fără consimțământul celor care le-au furnizat inițial - și că este posibil să nu aibă protecția adecvată pentru datele sensibile pe care pacienții le introduc atunci când caută sfaturi. „Deși se angajează să valorifice noile tehnologii, inclusiv inteligența artificială și sănătatea digitală, pentru a îmbunătăți sănătatea umană, OMS recomandă ca factorii de decizie să asigure siguranța și protecția pacienților, în timp ce firmele de tehnologie lucrează pentru a comercializa LLM”, a spus organizația.

Manny Krakaris, CEO al companiei de tehnologie a sănătății Augmedix din San Francisco, a declarat că sprijină avizul OMS. „Acesta este un subiect care evoluează rapid, iar prudența este esențială pentru siguranța și confidențialitatea pacientului”, a declarat acesta. Augmedix folosește LLM-urile, împreună cu alte tehnologii, pentru a produce documentație medicală și soluții de date.

Influența inteligenței artificiale 

„În timp ce LLM-urile pot fi folosite ca instrument de sprijin, medicii și pacienții nu se pot baza pe LLM-urile ca soluție finală”, a spus Krakaris. „LLM generează date care par precise și definitive, dar pot fi complet eronate, așa cum a menționat OMS în avizul său”, a continuat el. „Acest lucru poate avea consecințe catastrofale, în special în domeniul sănătății”.

Când își creează serviciile de documentare medicală ambientală, Augmedix combină LLM-urile cu recunoașterea automată a vorbirii (ASR), procesarea limbajului natural (NLP) și modelele de date structurate pentru a se asigura că rezultatul este exact și relevant, a spus Krakaris. „Inteligența artificială nu va înlocui niciodată oamenii, însă poate crea mari probleme care să afecteze industria sănătății", a spus el, potrivit Fox News.