OpenAI restricționează accesul la GPT-5.4-Cyber. Noul model, capabil să identifice vulnerabilități informatice

OpenAI restricționează accesul la GPT-5.4-Cyber. Noul model, capabil să identifice vulnerabilități informaticeOpen AI / sursa foto: dreamstime.com

OpenAI a confirmat lansarea într-un cerc restrâns a unui nou model de inteligență artificială specializat în securitate cibernetică, într-un context global marcat de îngrijorări tot mai mari privind utilizarea AI atât pentru apărare, cât și pentru atacuri informatice, potrivit publicației LeFigaro.

Anunțul vine într-un moment sensibil pentru industrie, în care marile companii tehnologice și instituțiile financiare analizează impactul accelerat al inteligenței artificiale asupra infrastructurilor critice și asupra stabilității digitale.

Noul model Opean AI, mai „permisiv”, lansat cu acces controlat

Compania OpenAI a prezentat noul model, denumit GPT-5.4-Cyber, ca fiind o versiune optimizată pentru analiza și prevenirea amenințărilor informatice. Potrivit unui anunț oficial publicat pe blogul companiei, modelul a fost antrenat pentru a oferi „capacități cibernetice suplimentare” și funcționează cu mai puține restricții comparativ cu versiunile standard.

Din cauza acestor caracteristici, OpenAI a decis să limiteze accesul inițial la un grup select de utilizatori: furnizori de securitate, organizații și cercetători validați. Reprezentanții companiei au explicat că această abordare este necesară pentru a preveni utilizarea abuzivă a tehnologiei.

„Pentru că acest model este mai permisiv, începem cu o implementare limitată (...) pentru organizații și cercetători aprobați”, se arată în comunicarea oficială.

Îngrijorări crescânde în industrie

Lansarea are loc într-un climat tensionat, alimentat de dezbateri privind riscurile pe care AI le poate genera în domeniul securității cibernetice. Cu doar o săptămână înainte, compania Anthropic a anunțat amânarea lansării propriului model avansat, Claude Mythos, invocând riscuri legate de descoperirea unor vulnerabilități informatice.

Modelul dezvoltat de Anthropic ar fi identificat mii de vulnerabilități necunoscute anterior în sisteme informatice, ceea ce a ridicat semne de întrebare privind modul în care astfel de tehnologii ar putea fi utilizate în mod ofensiv.

Potrivit relatărilor din presa internațională, lideri ai unor mari bănci americane au discutat aceste riscuri cu oficiali de rang înalt, inclusiv cu secretarul Trezoreriei SUA și conducerea Rezervei Federale.

Ce poate face noul model OpenAI

OpenAI susține că modelul este conceput pentru a sprijini profesioniștii în securitate în evaluarea software-ului și a infrastructurilor digitale. Printre capabilitățile evidențiate:

  • analizarea codului pentru identificarea comportamentelor malițioase;
  • detectarea vulnerabilităților și a punctelor slabe din sisteme;
  • evaluarea nivelului de reziliență al aplicațiilor;
  • simularea unor scenarii de atac pentru testarea apărării.
inteligenta artificiala

inteligenta artificiala / sursa foto: dreamstime.com

Compania subliniază că scopul principal este întărirea mecanismelor de apărare, nu facilitarea atacurilor. Totuși, faptul că modelul funcționează cu mai puține restricții a determinat adoptarea unei strategii prudente de distribuție.

Diferențe de abordare față de competiție

Deși atât OpenAI, cât și Anthropic au ales lansări limitate, strategiile diferă. Anthropic a restricționat accesul la aproximativ 40 de organizații în cadrul proiectului „Glasswing”, în timp ce OpenAI indică intenția de a extinde treptat accesul către un public mai larg.

„Nu considerăm că este practic sau adecvat să decidem centralizat cine are dreptul să se apere”, a transmis compania, sugerând o abordare mai deschisă pe termen mediu.

Lansarea noului model Open AI, schimbare importantă în industrie

Lansarea GPT-5.4-Cyber reflectă o schimbare importantă în modul în care companiile de tehnologie gestionează dezvoltarea inteligenței artificiale în domenii sensibile.

Pe de o parte, astfel de modele pot îmbunătăți semnificativ capacitatea de apărare împotriva atacurilor informatice; pe de altă parte, ele ridică riscuri reale dacă sunt utilizate fără controale adecvate.

Pe fondul acestor tensiuni, industria pare să adopte o strategie de testare controlată, în care accesul limitat devine un instrument esențial pentru echilibrarea inovației cu securitatea.