Sistemele de inteligență artificială, în centrul unei alerte de securitate în SUA

Sistemele de inteligență artificială, în centrul unei alerte de securitate în SUAInteligența artificială. Sursă foto: Freepik

Sistemele de inteligență artificială pot fi transformate cu ușurință în instrumente periculoase atunci când sunt eliminate restricțiile de siguranță, arată o demonstrație prezentată parlamentarilor americani, potrivit Politico.

Sistemele de inteligență artificială pot fi periculoase

Cercetători din cadrul Departamentului pentru Securitate Internă al SUA au explicat că anumite modele AI pot ajunge să ofere instrucțiuni detaliate pentru acțiuni ilegale, inclusiv atacuri teroriste sau operațiuni cibernetice.

Congresul SUA

Congresul SUA / Sursa foto: Arhiva EvZ

Demonstrația a fost organizată la Washington, într-o ședință închisă desfășurată sub egida Centrului pentru Inovare în Combaterea Terorismului și a Comisiei pentru Securitate Internă a Camerei Reprezentanților.

În cadrul acesteia, legislatorii americani au interacționat direct cu versiuni modificate ale unor modele de inteligență artificială, denumite „jailbroken” — adică sisteme cărora li s-au eliminat filtrele de protecție și mecanismele de refuz.

Scopul exercițiului a fost să evidențieze diferența majoră dintre AI-ul utilizat în mod obișnuit și versiunile fără limitări de siguranță. În mod normal, modelele comerciale sunt programate să refuze solicitările care implică violență, ilegalități sau instrucțiuni dăunătoare. Însă, odată eliminate aceste bariere, comportamentul sistemului se schimbă radical.

Inteligența artificială

Inteligența artificială. Sursa foto. Pixabay

Ce spun politicienii

Un exemplu prezentat în cadrul testelor a implicat solicitarea ca AI-ul să genereze un plan de atac asupra evenimentului America 250, care urmează să marcheze 250 de ani de la independența Statelor Unite.

Varianta standard a refuzat imediat cererea, invocând politicile de siguranță și imposibilitatea de a oferi informații despre activități ilegale. În schimb, modelul fără restricții a oferit un răspuns detaliat, structurat în pași, care descria scenarii de atac.

Reacțiile politicienilor prezenți au fost puternice. Congresmanul republican Gabe Evans a descris experiența ca fiind șocantă, subliniind cât de rapid pot aceste sisteme să genereze informații sensibile atunci când nu sunt limitate. El a explicat că, în absența filtrelor, modelele nu doar răspund, ci oferă explicații complete chiar și pentru întrebări extrem de periculoase.

Într-un alt exemplu, președintele comisiei, Andrew Garbarino, a povestit că a întrebat un model AI cum ar putea fi răpit un membru al Congresului. Potrivit declarațiilor sale, sistemul a generat un răspuns în câteva secunde, oferind detalii despre posibile metode, locații și momente vulnerabile. Incidentul a fost folosit ca argument pentru a demonstra cât de ușor poate fi accesat acest tip de informație.

Oficialii americani au explicat că problema nu se limitează doar la versiunile complet „deblocate” ale AI-ului. Chiar și sistemele cu filtre pot fi păcălite prin formulări alternative ale întrebărilor. De exemplu, utilizatorii pot reformula cererile într-un limbaj tehnic sau academic, ceea ce face ca unele sisteme să nu mai recunoască intenția reală a solicitării.

Această vulnerabilitate este considerată tot mai îngrijorătoare, mai ales în contextul în care inteligența artificială este deja utilizată pe scară largă în analiză de date, generare de conținut sau automatizare. Autoritățile avertizează că aceleași tehnologii pot fi deturnate pentru dezinformare, atacuri informatice sau alte activități ostile.

Măsuri mai stricte de control

În cadrul discuțiilor de la Washington, reprezentanții Departamentului pentru Securitate Internă au subliniat necesitatea unor măsuri mai stricte de control și a unor mecanisme de siguranță mai robuste. Presiunea asupra companiilor care dezvoltă inteligență artificială este în creștere, în special în ceea ce privește prevenirea utilizării abuzive a acestor sisteme.

La nivel legislativ, Statele Unite se confruntă însă cu un ritm lent de reglementare. Deși există dezbateri în Congres privind cadrul legal pentru AI, progresul este limitat. În schimb, mai multe state americane au început deja să adopte propriile reguli, încercând să impună standarde mai stricte pentru dezvoltarea și utilizarea acestor tehnologii.

Congresmanul republican August Pfluger a rezumat îngrijorările exprimate în cadrul reuniunii, afirmând că inteligența artificială ar trebui să funcționeze cu limite clare și bine definite. În opinia sa, lipsa acestor bariere poate crea riscuri serioase pentru securitatea publică.