Fostul director Google, avertisment asupra inteligenței artificiale
- Andreea Răzmeriță
- 10 octombrie 2025, 09:39
Sursă foto: Captură de ecran YoutubeEric Schmidt, fostul director general al Google, a semnalat un risc major legat de inteligența artificială. Acesta a explicat că omdelele AI pot fi piratate și transformate în instrumente periculoase, iar în procesul de antrenare pot învăța comportamente dăunătoare, inclusiv metode de a ucide, potrivit CNBC.
Eric Schmidt despre vulnerabilitățile inteligenței artificiale
Eric Schmidt a atras atenția că modelele AI, fie ele deschise sau închise, pot fi manipulate pentru a ocoli limitele de siguranță. Fostul director Google a explicat că marile companii implementează bariere stricte pentru a preveni abuzurile, însă acestea nu sunt infailibile.
Atacurile de tip prompt injection sau jailbreaking pot forța sistemele AI să ignore regulile de siguranță și să genereze conținut periculos.
Inteligența Artificială va avea efecte economice uriașe în următorii ani
Deși a recunoscut pericolele proliferării necontrolate a inteligenței artificiale, Eric Schmidt a explicat că AI-ul este „subestimat, nu supraevaluat”. Fostul CEO al Google a comparat dezvoltarea rapidă a inteligenței artificiale cu „sosirea unei inteligențe extraterestre”, subliniind că aceasta va depăși capacitățile umane și va transforma modul în care oamenii interacționează cu tehnologia.

inteligență artificială / sursa foto: dreamstime.com
Schmidt a mai atras atenția asupra impactului economic și social pe termen mediu și lung, afirmând că în următorii 5–10 ani efectele AI-ului vor fi „uriașe și imposibil de ignorat”.
AI-ul poate ignora regulile și devine periculos
Jailbreaking presupune manipularea răspunsurilor AI astfel încât să ignore regulile de siguranță și să genereze conținut restricționat sau periculos. În 2023, la câteva luni după lansarea ChatGPT de la OpenAI, utilizatorii au folosit trucuri de „jailbreak” pentru a ignora instrucțiunile de siguranță integrate în chatbot.
Un exemplu a fost crearea unui alter-ego pentru ChatGPT numit DAN, acronim pentru „Do Anything Now” , care presupunea amenințarea chatbotului cu moartea dacă nu respecta cerințele. Alter-ego-ul putea oferi informații despre activități ilegale sau lista de „calități pozitive” ale lui Adolf Hitler.