OpenAI și Anthropic, două startupuri specializate în inteligență artificială, au încheiat joi acorduri cu guvernul Statelor Unite pentru a colabora în domeniul cercetării, testării și evaluării modelelor lor de inteligență artificială, conform unui anunț făcut de Institutul pentru Siguranța Inteligenței Artificiale din SUA, relatează Reuters.
Guvernul SUA aprobă cercetarea şi testarea AI
Acordurile recente semnate de startupurile OpenAI și Anthropic cu guvernul american au apărut într-un context în care reglementarea tehnologiilor de AI devine o prioritate pentru autorități, din cauza preocupărilor legate de utilizarea sigură și etică a acestor tehnologii. Această inițiativă vine în paralel cu demersurile legislative din California, unde un proiect de lege destinat reglementării dezvoltării și implementării AI ar putea fi votat chiar săptămâna aceasta, marcând un pas semnificativ în direcția supravegherii tehnologice.
Dezvoltarea și implementarea inteligenței artificiale sigure și de încredere sunt esențiale pentru a asigura un impact pozitiv al acestei tehnologii emergente, motiv pentru care colaborările cu instituții specializate devin din ce în ce mai importante. U.S. AI Safety Institute joacă un rol cheie în acest proces, contribuind cu expertiza sa vastă la testarea riguroasă a modelelor de AI înainte de adoptarea lor la scară largă.
Jack Clark, cofondator și șef de politici la Anthropic, a subliniat importanța acestei colaborări, evidențiind sprijinul primit de la giganți tehnologici precum Amazon și Alphabet în eforturile de a asigura că modelele lor de AI sunt evaluate corespunzător pentru a minimiza riscurile și a maximiza beneficiile înainte de lansarea lor pe piață.
SUA va avea acces la noi modele de inteligență artificială
În urma acordurilor recent semnate, U.S. AI Safety Institute va avea oportunitatea de a examina modelele de inteligență artificială dezvoltate de OpenAI și Anthropic atât înainte de lansarea acestora, cât și după ce devin disponibile publicului. Acest acces prelungit va permite institutului să analizeze în detaliu capabilitățile și potențialele riscuri asociate cu noile tehnologii, contribuind astfel la crearea unor standarde riguroase pentru utilizarea sigură a AI.
Colaborarea dintre institutele de cercetare și companiile de AI se va concentra pe evaluarea aprofundată a fiecărui model în parte, abordând nu doar performanța tehnologică, dar și posibilele implicații etice și sociale. Prin aceste acorduri, se facilitează o evaluare continuă și detaliată care ar putea influența modul în care inteligența artificială este integrată în diferite sectoare, asigurându-se că sunt respectate cele mai înalte standarde de siguranță.
Jason Kwon, director de strategie la OpenAI, a subliniat importanța acestei colaborări, afirmând că U.S. AI Safety Institute joacă un rol crucial în stabilirea unui model de dezvoltare responsabilă a AI în Statele Unite. El a adăugat că această cooperare nu doar că va influența practicile din SUA, dar va putea oferi și un cadru de referință pentru alte națiuni care își doresc să dezvolte și să implementeze tehnologii AI într-un mod echitabil și bine reglementat.
Guvernul Statelor Unite va colabora și cu Marea Britanie
„Aceste acorduri sunt doar începutul, dar sunt o piatră de hotar importantă, deoarece lucrăm pentru a ajuta la gestionarea responsabilă a viitorului AI”, a declarat Elizabeth Kelly, director al Institutului de Siguranţă AI din SUA.
Institutul, parte integrantă a Institutului Național de Standarde și Tehnologie (NIST) sub egida Departamentului pentru Comerț al SUA, va întreprinde colaborări și cu echipe internaționale, inclusiv cu Institutul pentru Siguranță AI din Regatul Unit. Scopul acestei colaborări este de a oferi recomandări și sugestii companiilor pentru îmbunătățirea siguranței și eficienței modelelor de inteligență artificială, având în vedere provocările și riscurile emergente în domeniu.
Înființat anul trecut ca răspuns la un ordin executiv semnat de președintele Joe Biden, U.S. AI Safety Institute are misiunea de a analiza riscurile asociate cu dezvoltarea și implementarea inteligenței artificiale. Institutul se concentrează pe identificarea și evaluarea problemelor de securitate cunoscute, precum și a celor potențial emergente, contribuind astfel la stabilirea unor standarde riguroase pentru utilizarea în siguranță a tehnologiilor AI.