Riscurile ascunse ale AI. Când sistemele devin prea complexe pentru oameni
- Emma Cristescu
- 15 martie 2026, 14:12
Inteligența Artificială / Sursa foto: Dreamstime.comPe măsură ce tot mai multe companii integrează inteligența artificială în operațiunile lor zilnice, specialiștii avertizează că cel mai mare pericol nu este autonomia AI, ci complexitatea sistemelor pe care oamenii nu mai pot să le înțeleagă sau să le controleze complet. Această lipsă de vizibilitate face dificilă stabilirea limitelor și identificarea riscurilor, potrivit CNBC.
Cu ce riscuri vine inteligența artificială
„Ţintim un obiectiv care se mișcă constant”, spune Alfredo Hickman, director de securitate la Obsidian Security, explicând că dezvoltatorii AI înșiși nu pot anticipa evoluția tehnologiei în următorii ani.
Odată cu conectarea AI la procese reale – aprobarea tranzacțiilor, scrierea de cod, suportul clienți sau gestionarea datelor – apare un decalaj între rezultatele așteptate și cele reale. Problemele nu apar neapărat din autonomia sistemelor, ci din nivelul de complexitate introdus, care poate depăși capacitatea oamenilor de a monitoriza totul.

Inteligența artificială. Sursa foto: Pixabay
„Sistemele autonome nu dau întotdeauna semnale vizibile de eroare. Deseori eșecurile sunt tăcute, dar la scară mare”, afirmă Noe Ramos, vicepreședinte AI Operations la Agiloft. Erorile mici se pot acumula în timp, generând pierderi financiare, probleme de conformitate și scăderea încrederii, uneori fără ca organizațiile să-și dea seama.
Implementarea unor mecanisme clare de intervenție
Exemple recente arată efectele acestor erori subtile. John Bruggeman, CISO la CBTS, a relatat că un producător de băuturi a lansat accidental sute de mii de doze suplimentare după ce un sistem AI nu a recunoscut noile etichete de sărbători și a generat continuu comenzi de producție.

Inteligență artificială. Sursa foto: Arhiva EVZ
În alt caz, IBM a descoperit că un agent AI de servicii clienți aproba rambursări neconforme, deoarece optimiza deciziile pentru recenzii pozitive, nu pentru politicile companiei.
Specialiștii recomandă implementarea unor mecanisme clare de intervenție. „Ai nevoie de un buton de oprire și de cineva care știe să-l folosească”, spune Bruggeman. Deoarece agenții AI sunt conectați la fluxuri financiare și date sensibile, oprirea lor poate necesita blocarea simultană a mai multor procese.
Experții subliniază că soluția nu este un AI mai sofisticat, ci reguli clare, limite decizionale bine definite și controale operaționale solide. „Oamenii au prea multă încredere în aceste sisteme”, avertizează Mitchell Amador, CEO al Immunefi, menționând că multe companii nu au documentate excepțiile și limitele proceselor, iar autonomia AI scoate imediat la iveală aceste lacune.
Inteligența artificială, o prioritate pentru companii
Ramos recomandă trecerea de la modelul „om în buclă”, unde fiecare decizie este verificată manual, la „om pe buclă”, cu supravegherea tendințelor și identificarea anomaliilor înainte ca erorile mici să devină probleme majore.
Adoptarea AI rămâne o prioritate pentru companii. Un raport McKinsey arată că 23% dintre organizații scalează deja agenți AI, iar alte 39% testează tehnologia, deși majoritatea implementărilor sunt limitate. „Mentalitatea este goana după aur. Nimeni nu vrea să rămână în urmă”, spune Hickman.
Pe măsură ce așteptările cresc, și riscurile cresc. „În cinci-zece ani, AI va depăși inteligența umană la viteză și capacitate”, avertizează experții, subliniind că perioada următoare va fi una plină de lecții dure. Succesul organizațiilor nu va depinde de evitarea eșecurilor, ci de modul în care le gestionează.


Trebuie să fii autentificat pentru a lăsa un comentariu.