Militarizarea inteligenței artificiale, un câmp de luptă fără limite. Mașinile pun stăpânire pe Război și pe Civilizație
- Tudor Borcea
- 6 februarie 2019, 00:00
În competiția pentru a conduce cursa tehnologiilor emergente și zonele de combat ale războaielor viitorului, inteligența artifi cială (IA) devine rapid o miză esențială pentru puterile mondiale.
Așa cum se vede în numeroase țări, dezvoltarea sistemelor de arme autonome (AWS) a progresat rapid și această creștere a militarizării inteligenței artificiale pare că a devenit o evoluție extrem de destabilizantă. Punând probleme complexe de securitate nu numai pentru decidenții fiecărei țări, dar și pentru viitorul omenirii.
Realitatea actuală este că IA ne conduce către un nou câmp de luptă, o luptă algoritmică fără frontiere, cu sau fără implicare umană, imposibil de înțeles și, poate, de controlat prin ecosistemul uman în cyberspațiu, geospațiu și spațiu (CGS). În consecință, ideea militarizării inteligenței artificiale, în cadrul căreia un sistem armat, odată activat în CGS, poate selecta și angaja ținte umane și non-umane fără intervenția suplimentară a unui conceptor sau operator uman, suscită uriașe temeri.
Dar o mașină care poate îndeplini orice sarcină militară, proiectată fără nici o implicare sau intervenție umană, este pe cale să devină o realitate ce nu mai poate fi ignorată.
În condițiile în care inteligen ța artificială, învățarea automată, evoluează și trec de la con cepție la comercializare, accelerarea rapidă a puterii de calcul, memorie, datele voluminoa se și comunicarea de mare viteză creează nu numai o frenezie a inovațiilor, investițiilor și aplicațiilor, dar intensifică în mod egal căutarea de noi programe de IA.
Progrese rapide și continue în domeniul ineligenței artificiale sunt pe cale să revoluționeze războaiele și orice țară va dezvolta sisteme de arme automatizate, odată ce IA va face posibil acest lucru. Când țările, individual sau colectiv, își accelerează eforturile pentru a obține un avantaj concurențial în domeniul științei și tehnologiei, militarizarea ulterioară a IA este inevitabilă, se arată într-un studiu publicat de Forbes.
Grabă în necunoscut
Sistemele de arme autonome vor veni și vor rămâne. Chestiunea, afirmă specialiștii, la care trebuie răspuns este dacă inteligența artificială va conduce și determina strategia pentru supraviețuirea și securitatea oamenilor. Poziționarea armelor autonome va schimba până și sensul de a fi uman și va modifica fără echivoc chiar fundamentele securității, viitorul umanității și al păcii. Este important de înțeles și evaluat dacă cursa armelor autonome nu poate fi împiedicată, ce ar putea să se întâmple rău. Este timpul , afirmă observatorii, ca statele să recunoască: simpul fapt că tehnologia poate permite dezvoltarea reușită a armelor autonome nu înseamnă că este obligatoriu să fie făcută. Mai direct, poate nu este timpul ca umanitatea să înarmeze inteligența artificială. Trebuie făcută o pauză.
Automatizarea se afi rmă ca noua armă strategică
Inteligența artificială este o miză de apărare prioritară pentru puterile militare ale secolului 21. Fără surpriză, Statele Unite și China se află în fruntea acestei noi curse a armamentului digital. IA este capabilă să facă un număr din ce în ce mai mare de sarcini specifice în care depășește performanțele umane. Aplicată în domeniu militar, inteligența artificială permite gestionarea și simularea mediului operațional, detectarea amenințărilor, tratarea și simplificarea informațiilor colectate și livrarea de analize. Astfel, ea prelungește revoluția din sectorul militar survenită în 1990 și se prezintă drept calea principală a superiorității tactice.
În timp ce automatizarea se afirmă progresiv ca o nouă armă strategică, susținătorii unui „umanism militar” subliniază în același timp limitele (deocamdată) tehnologiei, largul evantai de contra măsuri și riscul unei pierderi a controlului, „dezumanizarea” războiului, mergând până la punerea în discuție a meseriei de soldat. Dacă aceste evoluții necesită un nou echilibru în relația ommașină în viitorul apropiat, apariția pe termen lung a așanumitei „IA puternice”, care este în întregime autonomă, ar putea transforma în continuare dinamica politico-militară sau chiar modifica însăși natura războiului.
Dezvoltarea rapidă a militarizării IA este evidentă la toate nivelurile: navigația și utilizarea de vehicule navale, aeriene și terestre fără echipaj. Producția de estimări a pagubelor colaterale, dezvoltarea de sisteme de rachete „fire and forget„ sisteme de mentenanță a echipamentelor pentru deplasarea dronelor de supraveghere, a roboților, și exemplele pot continua. Astfel, când algoritmele preiau în sarcină din ce în ce mai multe aspecte ale războiului, se pune întrebarea: ce utilizări ale inteligenței artificiale în războaiele de astăzi și de mâine ar putea fi autorizate, restrânse sau total interzise? În condițiile în care se crede că sistemele de arme autonome vor oferi posibilitatea reducerii costurilor de funcționare a sistemelor de arme și vor permite probabil acestora o creștere a vitezei, preciziei, durabilității, razei de acțiune și coordonării pe câmpul de luptă CGS, necesitatea de a înțelege și a evalua problemele tehnologice, juridice, economice și de securitate rămâne prioritară.
Cine răspunde? Omul sau mașina?
În fața acestor provocări complexe în materie de securitate și al adâncimii necunoscutelor care ne așteaptă, rolul programatorilor și al programelor, la fel ca integritatea cipurilor semiconductoare, rămân fundamentale pentru securitatea speciei umane. Motivul este ca programatorii să poată determina natura sistemelor de arme autonome (cel puțin la început) până când inteligența artificială începe să se programeze singură. Pe de altă parte, dacă (și când) un programator, intenționat sau accidental, ar programa o armă autonomă pentru a acționa violând dreptul internațional umanitar actual și viitor, cum va controla omenirea militarizarea IA? În plus, armele autonome fiind centrate pe software, cine ar trebui să-și asume responsabilitatea pentru erori și manipularea sistemelor AWS? Aici apare întrebarea cheie: Când și dacă un sistem autonom ucide, cine este responsabil, indiferent dacă este justificată uciderea sau nu? În plus, agoritmii nu sunt imuni la atacuri cibernetice. Mașinile inteligente vor „învăța” alte mașini, dar ce se va întâmpla dacă date manipulate sau „infectate” vor face parte din meniu? Riscurile de securitate sunt omniprezente iar aparatele concetate cresc capacitatea violării cybersecurității din locații îndepărtate.