Inteligența Artificială, folosită la operațiunea de capturare a lui Nicolas Maduro. Companiile de tehnologie luptă pentru a impresiona Pentagonul
- Tudor Păcuraru
- 14 februarie 2026, 18:44
Inteligența artificială AI. Sursa foto: PixabayInstrumentul de inteligență artificială, Claude, al companiei Anthropic a fost folosit în operațiunea militară de capturare a fostului președinte venezuelean Nicolas Maduro.
Reprezentanții Anthropic, cu privire la utilizarea lui Claude de către Pentagon, i-au determinat pe oficialii administrației americane să ia în considerare anularea contractului său de 200 de milioane de dolari.
Inteligența Artificială, folosită la operațiunea de capturare a lui Nicolas Maduro. Companiile de tehnologie luptă pentru a impresiona Pentagonul
Anthropic a fost primul dezvoltator de modele de inteligență artificială utilizat în operațiuni clasificate ale Departamentului Apărării, ceea ce a dus la stimularea și crearea unui mediu concurențial tot mai dezvoltat în zona inteligenței artificiale.
Instrumentul de inteligență artificială Claude, produs de Anthropic, a fost folosit în operațiunea armatei americane de capturare a fostului președinte venezuelean Nicolás Maduro, pledând pentru felul în care modelele de inteligență artificială câștigă teren la Pentagon, potrivit unor persoane familiarizate cu situația.
Misiunea de capturare a lui Maduro și a soției sale a inclus bombardarea mai multor locații din Caracas, luna trecută. Regulile de utilizare ale Anthropic interzic ca instrumentul Claude să fie folosit pentru a facilita violența, a dezvolta arme sau a efectua activități de supraveghere.
„Nu putem comenta dacă Claude sau orice alt model de inteligență artificială a fost folosit pentru vreo operațiune specifică, clasificată sau de altă natură”, a declarat un purtător de cuvânt al Anthropic. „Orice utilizare a lui Claude - fie în sectorul privat, fie în cadrul guvernului - este necesară pentru a respecta Politicile noastre de utilizare, care guvernează modul în care Claude poate fi implementat. Lucrăm îndeaproape cu partenerii noștri pentru a asigura conformitatea.”
Departamentul Apărării a refuzat să comenteze
Implementarea Claude a avut loc prin parteneriatul dintre cei de la Anthropic și compania de date Palantir Technologies PLTR, ale cărei instrumente sunt utilizate în mod obișnuit de Departamentul Apărării și de forțele de ordine federale. Îngrijorările Anthropic cu privire la modul în care Claude ar putea fi folosit de Pentagon i-au împins pe oficialii administrației să ia în considerare anularea contractului său în valoare de până la 200 de milioane de dolari, a relatat anterior publicația The Wall Street Journal. Palantir nu a răspuns imediat la o solicitare pe acest subiect.
Anthropic a fost primul dezvoltator de modele de inteligență artificială utilizat în operațiuni clasificate de către Departamentul Apărării. Este posibil ca și alte instrumente de inteligență artificială să fi fost folosite în operațiunea din Venezuela pentru sarcini neclasificate. Instrumentele pot fi utilizate pentru orice, de la rezumatul textelor unor documente până la controlul dronelor autonome.

Inteligența artificială. Sursa foto: Pixabay
Polemici aprinse
Adoptarea de către armată este văzută ca un impuls cheie pentru companiile de inteligență artificială, care au început o luptă pentru întâietate Dezvoltatorii încearcă să se ridice la înălțimea evaluărilor exigente ale investitorilor.
Directorul executiv al Anthropic, Dario Amodei, și alți directori generali s-au confruntat public cu puterea modelelor lor și cu riscurile pe care acestea le-ar putea reprezenta pentru societate. Amodei s-a dezis de mulți alți directori din industrie care au solicitat o reglementare mai strictă și măsuri de protecție pentru a preveni daunele cauzate de inteligența artificială.
Compania axată pe siguranță și alte companii din industrie au pierdut mulți angajați. Care au fost neumlțumiți pentru că se pune accentul pe dezvoltare tehnologică, fără să se țină cont de responsabilitate și efecte.
La un eveniment din ianuarie în care a fost anunțată colaborarea Pentagonului cu xAI, secretarul Apărării, Pete Hegseth, a declarat că agenția nu va „angaja modele de inteligență artificială care nu permit purtarea de războaie”, un comentariu care făcea referire la discuțiile pe care oficialii administrației le-au avut cu Anthropic.
Se cere control sporit
Contractul de 200 de milioane de dolari a fost atribuit companiei Anthropic vara trecută. Amodei și-a exprimat public îngrijorarea cu privire la utilizarea inteligenței artificiale în operațiuni letale autonome și de supraveghere internă. Acestea au fost cele două puncte principale de blocaj în negocierile contractuale actuale cu Pentagonul, potrivit unor surse.
Aceste restricții au escaladat lupta companiei cu administrația Trump, care include acuzații conform cărora Anthropic subminează strategia Casei Albe privind inteligența artificială, bazată pe reglementări reduse. Oficialii solicită mai multe filtre de protecție și limite pentru exporturile de cipuri de inteligență artificială.
Amodei și alți cofondatori ai Anthropic au lucrat anterior la OpenAI, companie care s-a alăturat recent celor de la Gemini de la Google, o platformă de inteligență artificială pentru personalul militar. Și care e utilizată de aproximativ trei milioane de oameni. Compania și Departamentul Apărării au declarat că versiunea personalizată a ChatGPT va fi utilizată pentru analizarea documentelor, generarea de rapoarte și susținerea cercetării.


Trebuie să fii autentificat pentru a lăsa un comentariu.