Pentagonul câștigă în disputa cu Anthropic. Hotărârile judecătorilor amplifică incertitudinea din sectorul AI.
- Iulia Moise
- 9 aprilie 2026, 12:19
Pete Hegseth și Dario Amodei / sursa foto: captură videoO curte federală de apel din Washington, D.C. a respins solicitarea companiei de inteligență artificială Anthropic de a bloca temporar măsurile Pentagonului care o clasifică drept risc pentru securitatea lanțului de aprovizionare, într-un nou episod al disputei juridice dintre companie și administrația fostului președinte Donald Trump, potrivit Associated Press.
Decizia vine într-un context juridic complicat, marcat de hotărâri contradictorii între instanțe federale din SUA și de implicații majore pentru sectorul tehnologic global.
Instanța de apel a refuzat să emită un ordin care să protejeze compania de efectele acestei etichetări, în timp ce procesul este încă în desfășurare, potrivit Reuters.
Anthropic pierde în fața Pendagonului
Curtea de Apel a SUA pentru Circuitul Districtului Columbia a concluzionat că nu există, în acest moment, suficiente motive pentru a suspenda acțiunile Pentagonului, chiar dacă a recunoscut că Anthropic „ar putea suferi un anumit grad de prejudiciu ireparabil”.
Instanța a argumentat însă că „valoarea exactă a prejudiciului financiar nu este pe deplin clară”, ceea ce a cântărit în decizia de a nu interveni imediat.
Compania solicitase un ordin de urgență pentru a evita consecințele reputaționale și comerciale generate de clasificarea sa drept risc de securitate, o măsură care îi limitează accesul la contracte guvernamentale și poate influența relațiile comerciale cu alți parteneri.
Hotărâri contradictorii în instanțe diferite
Decizia de la Washington contrastează cu o hotărâre anterioară pronunțată într-un tribunal federal din San Francisco, unde un judecător a obligat administrația Trump să elimine eticheta de risc aplicată companiei. Instanța din California a considerat că guvernul a depășit limitele legale în modul în care a tratat Anthropic.
Această divergență juridică creează un cadru incert, în care aceeași problemă este interpretată diferit de instanțe federale distincte, fără o soluție definitivă în acest moment.
Originea conflictului Anthropic - Pentagon: utilizarea AI în scopuri militare
Disputa dintre Anthropic și Pentagon își are originea în dezacordurile privind modul în care tehnologia companiei ar putea fi utilizată de armata americană. Anthropic a refuzat să elimine anumite restricții impuse asupra modelului său AI, Claude, în special în ceea ce privește utilizarea în arme autonome și în supravegherea populației.
Potrivit documentelor din instanță, compania susține că administrația a desfășurat o „campanie ilegală de represalii” după ce aceasta a încercat să limiteze utilizarea tehnologiei sale în astfel de scenarii.

Anthropic. Sursa foto: Captură video Youtube
De cealaltă parte, autoritățile americane au argumentat că decizia de a desemna Anthropic drept risc de securitate nu are legătură cu pozițiile sale etice, ci cu refuzul de a accepta anumite condiții contractuale impuse de Pentagon.
Impact asupra industriei și reacții
Reprezentanții companiei și ai industriei tehnologice au avertizat că această situație creează incertitudine într-un moment critic pentru competiția globală în domeniul inteligenței artificiale.
Anthropic a transmis într-un comunicat: „Suntem recunoscători că instanța a recunoscut necesitatea unei soluționări rapide a acestor probleme și rămânem încrezători că instanțele vor concluziona că aceste desemnări au fost ilegale.”
La rândul său, Matt Schruers, directorul unei organizații din industrie, a declarat că „acțiunile Pentagonului și decizia instanței din DC creează o incertitudine semnificativă pentru mediul de afaceri într-un moment în care companiile americane concurează la nivel global în domeniul AI”.
Cazul Anthropic, departe de a fi încheiat
Cazul este departe de a fi încheiat. O nouă audiere este programată pentru 19 mai, când instanța de apel va analiza probe suplimentare.
Până atunci, Anthropic rămâne într-o poziție juridică incertă, fiind afectată simultan de o decizie favorabilă în California și de una nefavorabilă în Washington, ceea ce reflectă complexitatea relației dintre guvernul american și companiile din domeniul inteligenței artificiale.