Care sunt pericolele din spatele inteligenței artificiale, conform ultimului studiu

Care sunt pericolele din spatele inteligenței artificiale, conform ultimului studiuInteligență artificială. Sursa foto: Tung Nguyen/ Pixabay

Un studiu recent arată că aproape jumătate dintre răspunsurile generate de asistenții AI conțin erori majore. Sociologul Dan Sultănescu avertizează că dependența de aceste instrumente pentru documentare și interpretare jurnalistică poate eroda încrederea publică și valorile democratice.

Studiu: erori grave în conținutul generat de asistenții AI

Un studiu publicat recent de Social Monitor a testat acuratețea și fiabilitatea celor mai folosite modele de inteligență artificială din prezent — printre care ChatGPT, Perplexity și Gemini — în procesarea conținutului jurnalistic.

Concluziile arată limite serioase: 45% dintre răspunsurile generate de AI au conținut cel puțin o problemă semnificativă, iar 31% dintre acestea au prezentat deficiențe de surse, precum lipsa atribuirii corecte, informații eronate sau chiar manipulative.

Totodată, 20% dintre rezultatele analizate au inclus erori majore de acuratețe, detalii inventate ori informații depășite. Potrivit studiului, Gemini a avut cele mai slabe rezultate, cu probleme identificate în 76% dintre cazuri, de peste două ori mai multe decât ceilalți asistenți analizați.

Autorii cercetării subliniază că aceste erori nu sunt întâmplătoare. Ele derivă din modul în care modelele AI combină informații din surse variate fără a aplica o verificare factuală independentă. Concluzia raportului este că, deși inteligența artificială poate fi utilă pentru sinteză, ea nu poate înlocui procesul uman de analiză și verificare jurnalistică.

Dan Sultănescu: „Publicul riscă să-și piardă încrederea în știri”

Politologul și sociologul Dan Sultănescu a reacționat la aceste concluzii, explicând că folosirea necontrolată a asistenților AI pentru interpretarea știrilor poate avea consecințe grave asupra spațiului public. Într-un mesaj publicat pe rețelele sociale, el a declarat:

„Un studiu recent confirmă ceea ce mulți intuiau deja: asistenții AI comit erori majore de fapt și de interpretare atunci când procesează conținut jurnalistic. Cei care își construiesc proiecte de business sau strategii de comunicare bazându-se pe astfel de date fac greșeli uriașe – iar publicul este expus unui risc și mai mare.”

Sultănescu a atras atenția că tot mai mulți jurnaliști și tineri în formare profesională folosesc instrumente precum Perplexity sau Gemini pentru documentare rapidă, fără a verifica ulterior informațiile oferite.

„Știu ziariști care cred că le va fi mai ușor dacă lucrează cu Perplexity sau Gemini în loc să facă munca de analiză și documentare umană. Știu tineri care cred că tot ce le dă AI este corect, sau mai corect decât ce vine dinspre oameni... Doar că, în timp, erorile se adună și efectul este că scade încrederea.”

Marele colaps al rețelelor de socializare. Big Tech rupe relația cu știrile. Cine ne va informa „corect”

Sursa foto: Pixabay

Efectele asupra democrației și participării civice

Sociologul avertizează că efectele acestor erori nu sunt doar tehnice, ci și sociale și politice. Odată ce încrederea publicului în informație se erodează, întreaga societate devine vulnerabilă în fața manipulării și a demobilizării.

„Când oamenii nu mai pot avea încredere în ceea ce citesc, ajung în timp să nu mai creadă nimic. Această erodare a încrederii afectează direct participarea civică și, în final, valorile democratice. Cinismul, pasul în spate, demobilizarea și abandonul apar ca efecte naturale”, a mai afirmat Dan Sultănescu.

Potrivit acestuia, pierderea încrederii în informațiile publice poate duce la ceea ce specialiștii numesc „demobilizare cognitivă” — o stare în care cetățenii, obosiți de contradicții și fake news, renunță să mai creadă în adevăr sau să se implice în viața comunității.

AI-ul, un instrument util doar dacă este controlat

Deși avertizează asupra riscurilor, Sultănescu nu respinge utilizarea inteligenței artificiale, ci pledează pentru o abordare echilibrată și responsabilă.

„Avem încă nevoie de instrumente care să ne ajute să navigăm fluxul de știri – dar aceste instrumente trebuie să fie atent calibrate, verificate și reglate continuu pentru acuratețe și echilibru”, a subliniat el.

El a amintit că Social Monitor a creat platforma #NewsVibe, menită să ofere un model de analiză automată verificată uman, unde rezultatele generate de algoritmi sunt trecute prin filtre editoriale și fact-checking riguros.

Prin acest tip de abordare, tehnologia devine un partener al jurnalismului, nu un substitut. Scopul nu este de a înlocui discernământul uman, ci de a-l sprijini prin instrumente transparente, care pot oferi context, dar nu verdict.

Erorile AI și responsabilitatea umană

Studiul citat de Social Monitor confirmă ceea ce mulți experți din industrie susțin de luni întregi: modelele AI pot genera rezultate plauzibile dar false. Această „halucinație algoritmică” — fenomenul prin care sistemele inventează fapte inexistente pentru a completa o narațiune — este una dintre cele mai mari provocări actuale pentru domeniul comunicării.

În lipsa unei verificări umane, astfel de erori pot fi amplificate exponențial, mai ales atunci când sunt redistribuite de utilizatori care nu verifică sursele. Consecința este o spirală a dezinformării, în care chiar și publicațiile serioase pot prelua date inexacte.

De aceea, tot mai multe redacții din Europa și Statele Unite introduc politici interne clare privind folosirea AI în procesul editorial. Acestea prevăd că instrumentele de inteligență artificială pot fi utilizate doar pentru asistență lingvistică, sumarizare sau traducere, dar nu pentru generarea automată de știri, interpretări sau analize fără supervizare umană.