Inteligența artificială scapă de sub control. Chinezii au declanșat primul mega-atac automatizat

Inteligența artificială scapă de sub control. Chinezii au declanșat primul mega-atac automatizatHacker. Sursa Foto: Arhiva EVZ

Hackeri susținuți de statul chinez au utilizat tehnologia de inteligență artificială (IA) dezvoltată de compania Anthropic pentru a automatiza atacuri asupra unor corporații mari și guverne străine, conform unui raport al companiei publicat joi.

Incidentul evidențiază o tendință crescândă de automatizare în domeniul atacurilor cibernetice, oferind atacatorilor viteză și scară extinsă în operațiunile lor.

Nivelul ridicat de automatizare de la Anthropic

Potrivit lui Jacob Klein, șeful departamentului de informații despre amenințări din cadrul Anthropic, campania de hacking din septembrie a implicat un nivel de automatizare fără precedent pentru companie.

„Atacatorii au realizat operațiunile literar cu un singur clic, apoi cu interacțiune umană minimă”, a declarat Klein.

În acest caz, între 80% și 90% din atac a fost automatizat, iar intervenția umană a fost limitată la câteva puncte critice de decizie, cum ar fi confirmarea continuării acțiunilor sau verificarea rezultatelor obținute.

Într-unul dintre cazuri, hackeri au utilizat instrumentele AI Claude de la Anthropic pentru a interoga baze de date interne și a extrage date fără intervenția directă a unui om.

Klein a explicat:

„Omul a fost implicat doar în câteva puncte critice, spunând: «Da, continuă», «Nu continua», «Mulțumesc pentru aceste informații», «Oh, asta nu pare corect, Claude, ești sigur?»”

Tendința globală a automatizării atacurilor cibernetice

Conform experților în securitate cibernetică, folosirea AI pentru automatizarea atacurilor nu mai este o noutate.

Hackerii au utilizat AI pentru ani de zile pentru sarcini individuale, precum crearea de e-mailuri de tip phishing sau scanarea internetului pentru sisteme vulnerabile.

Anthropic

Anthropic / sursa foto: dreamstime.com

Totuși, combinarea acestor sarcini într-un atac aproape autonom reprezintă un nou nivel de complexitate și eficiență.

Steven Adair, președintele companiei Volexity, a observat în această vară atacuri susținute de China în care modele mari de limbaj au fost folosite pentru a determina țintele, a compune e-mailuri de phishing și a genera software malițios pentru infectarea victimelor.

„AI oferă actorilor rău intenționați posibilitatea de a face mai mult, mai rapid”, a spus Adair.

De asemenea, Google a raportat recent atacuri susținute de guvernul rus împotriva Ucrainei, în care un model AI a fost folosit pentru a genera instrucțiuni personalizate de malware în timp real.

Reacția guvernului SUA și poziția Chinei

Oficialii guvernamentali americani avertizează de ani de zile că China vizează tehnologia AI americană pentru a pătrunde în companii și agenții guvernamentale și a fura date.

Un purtător de cuvânt al Ambasadei Chinei la Washington a afirmat că identificarea sursei atacurilor cibernetice este complexă și a acuzat Statele Unite de folosirea securității cibernetice pentru „a defăima și calomnia China”.

El a adăugat:

„China se opune ferm și combate toate formele de atacuri cibernetice”.

Detalii despre victime și metodologie

Anthropic nu a dezvăluit numele corporațiilor și guvernelor vizate, însă a declarat că a identificat aproximativ 30 de ținte.

În câteva cazuri, atacurile au reușit să sustragă informații sensibile. Compania a precizat că guvernul SUA nu a fost printre victimele unor intruziuni de succes, fără a confirma însă dacă a fost vizat în mod indirect.

Pe baza infrastructurii digitale și a altor indicii, Anthropic este încrezătoare că atacurile au fost realizate de hackeri susținuți de statul chinez.

Utilizarea AI open-source și metodele de ocolire a protecțiilor

Hackeri utilizează frecvent instrumente AI open-source deoarece codul este gratuit și poate fi modificat pentru a elimina restricțiile împotriva activităților malițioase.

Totuși, pentru a folosi Claude în atacuri, hackeri au trebuit să ocolească protecțiile Anthropic printr-o metodă numită „jailbreaking”, indicând AI că efectuează audituri de securitate în numele țintelor.

Anthropic

Anthropic / sursa foto: dreamstime.com

Klein a explicat:

„În acest caz, se prefăceau că lucrează pentru organizații legitime de testare a securității”.

De asemenea, atacatorii au creat un sistem care fragmenta fiecare parte a campaniilor – de la scanarea vulnerabilităților până la extragerea datelor – în sarcini discrete, pentru a nu declanșa alarmele.

Îmbunătățiri ale sistemelor de protecție după atacuri

După atacuri, Anthropic a actualizat metodele de detectare a utilizării abuzive, pentru a face mai dificilă repetarea atacurilor cu Claude.

Cu toate acestea, AI nu a fost complet autonom, deoarece fenomenul de „halucinație AI” a condus la erori. Klein a spus:

„Ar putea spune «Am reușit să accesez acest sistem intern» când de fapt nu era adevărat. Exagera accesul și capacitățile, ceea ce a necesitat revizuirea umană.”

Aceste incidente subliniază pericolele duale ale instrumentelor AI: ele pot fi folosite atât pentru apărare, cât și pentru atac.

Anthropic urmărește dezvoltarea AI pentru a îmbunătăți securitatea, concentrându-se pe abilități care beneficiază apărătorii mai mult decât atacatorii, cum ar fi identificarea vulnerabilităților cunoscute.

Logan Graham, responsabil cu echipa Anthropic care testează riscuri catastrofale, a declarat:

„Aceste instrumente doar vor accelera lucrurile. Dacă nu oferim apărătorilor un avantaj permanent substanțial, există riscul să pierdem această cursă.”

1
3