Compania Anthropic vrea să angajeze un expert în arme chimice pentru a preveni utilizarea abuzivă a software-ului său

Compania Anthropic vrea să angajeze un expert în arme chimice pentru a preveni utilizarea abuzivă a software-ului săuInterviu de angajare. Sursa foto: Freepik

Compania americană de inteligență artificială Anthropic vrea să angajeze un expert în arme chimice și explozivi de mare putere, cu scopul de a preveni utilizarea abuzivă, cu potențial catastrofal, a software-ului său, potrivit BBC.

Ce condiții trebuie să îndeplinească candidații

În anunțul de recrutare publicat pe LinkedIn, compania precizează că aplicanții trebuie să aibă cel puțin cinci ani de experiență în „apărarea împotriva armelor chimice și/sau a explozivilor”, precum și cunoștințe despre „dispozitive de dispersie radiologică”, cunoscute și sub denumirea de bombe murdare.

Compania se teme că instrumentele sale de AI ar putea arăta cum se pot fabrica arme chimice sau radioactive și vrea un expert care să verifice dacă măsurile de protecție sunt suficient de solide, potrivit BBC. Compania a declarat pentru sursa menționată anterior că acest rol este similar cu alte poziții create deja în domenii sensibile.

ChatGPT a publicat un anunț similar

Anthropic nu este singura companie de inteligență artificială care adoptă această abordare. Un anunț similar a fost publicat și de OpenAI, dezvoltatorul ChatGPT.

openAI

Open AI Sursă foto: Dreamstime

Pe site-ul de recrutare, compania are disponibil un post pentru un cercetător specializat în riscuri biologice și chimice, cu un salariu care poate ajunge până la 455.000 de dolari, aproape dublu față de cel oferit de Anthropic.

Unii experți atrag atenția asupra riscurilor acestei abordări și avertizează că ea pune la dispoziția sistemelor de inteligență artificială informații despre arme, chiar dacă li s-a cerut să nu le utilizeze. De asemenea, industria inteligenței artificiale a semnalat în mod constant potențialele riscuri ale tehnologiei, însă nu a făcut demersuri pentru a încetini dezvoltarea acesteia.

Problema, legată de conflictul din Iran

Problema a devenit una urgentă, în contextul în care guvernul SUA colaborează cu firme de inteligență artificială, în timp ce desfășoară acțiuni militare în Iran și operațiuni în Venezuela. Anthropic a dat în judecată Departamentul Apărării al SUA, pe care l-a desemnat drept un risc pentru lanțul de aprovizionare, și a transmis că sistemele sale nu trebuie folosite nici în arme complet autonome, nici pentru supravegherea în masă a americanilor.

Co-fondatorul Anthropic, Dario Amodei, a scris în februarie că tehnologia nu este încă suficient de avansată și că nu ar trebui folosită în astfel de scopuri. Casa Albă a transmis că armata Statelor Unite nu va fi condusă de companii de tehnologie.

Eticheta de risc pune compania americană în aceeași situație cu firma chineză de telecomunicații Huawei, inclusă pe lista neagră din cauza unor preocupări diferite privind securitatea națională. OpenAI a declarat că este de acord cu poziția Anthropic, însă a negociat ulterior propriul contract cu guvernul SUA, care, potrivit companiei, nu a intrat încă în vigoare.