În timp ce se stabilea un nou set de principii de bază pentru inteligența artificială, secretarul apărării Lloyd Austin, și-a exprimat îngrijorarea cu privire la abordarea diferită și îngrijorătoare a Chinei.
China încalcă regulile jocului. Vorbind la Summitul Global pentru Tehnologii Emergente al Comisiei Naționale de Securitate pentru Inteligența Artificială, Austin a avertizat că liderii chinezii, speră să domine inteligența artificială globală până în 2030. Pentru Austin a fost clar că liderii chinezi vor dezvolta și aplica inteligența artificială într-un mod mult mai agresiv.
„Beijingul vorbește deja despre utilizarea IA pentru o serie de misiuni, de la supraveghere la atacuri cibernetice și până la arme autonome. Pe tărâmul IA înțelegem cum China devine provocarea noastră”, a spus Austin la eveniment.
Preocuparea cea mai mare sau cea mai imediată, pare să fie referința lui Austin la armele autonome cu IA, având în vedere că, China, nu va respecta liniile etice ale politicii de apărare a Statelor Unite. În ciuda progresului tehnologic rapid, care face din ce în ce mai posibil ca platformele să găsească, urmărească și distrugă ținte inamice fără vreo intervenție umană, Pentagonul susține doctrina sa existentă, ca orice decizie cu privire la utilizarea forței letale să fie luată de un om.
Abilitatea tehnică a unui sistem autorizat de IA este făcut de așa natură încât senzorii să poată găsi în mod automat ținte, să poată trimite date disparate către o bază de date centrală și să poată face determinări instantanee cu privire la specificul țintei.
Statele Unite stabilesc un set de reguli clare
Producătorii de arme din Statele Unite sunt destul de îngrijorați de faptul că liderii militari și politici chinezi, nu vor ține cont de parametrii etici ai inteligenței artificiale, fiind vorba despre un scenariu care ar crește riscul pentru forțele Statelor Unite. Cu toate acestea, Austin a spus clar că Pentagonul își va continua demersurile privind principiile definitorii ale inteligenței artificiale responsabile.
„Dezvoltarea, desfășurarea și utilizarea inteligenței artificiale trebuie să fi întotdeauna responsabilă, echitabilă, trasabilă, fiabilă și guvernabilă”, a spus Austin. „Vom folosi IA în scopuri definite clar. Imediat vom ajusta, îmbunătăți sau chiar dezactiva sistemele de IA care nu se comportă așa cum intenționăm", a spus Austin.
Când vine vorba de aplicații neletale ale inteligenței artificiale, există discuții despre potențiale aplicații, precum cele pur defensive, de rachete interceptoare sau apărări împotriva dronelor, a spus National Interest.