A apărut Drona Terminator! Ucide fără nici o comandă umană!

A apărut Drona Terminator! Ucide fără nici o comandă umană!

Un raport publicat de o revistă științifică atestă faptul că în cadrul conflictelor armate au apărut dronele autonome.

Dezvăluirea crește îngrijorarea cu privire la armele tip AI în stil Terminator, care, în conflictele militare, ar putea ucide oameni fără niciun control uman. Drona a fost folosită în martie anul trecut în timpul conflictului dintre forțele guvernamentale libiene și o fracțiune militară separatistă condusă de Khalifa Haftar, comandantul armatei naționale libiene. Arma AI în stil Terminator „a vânat oameni fără să i se dea nici o comandă”, avertizează raportul ONU, citat de Express Mail.

S-a aflat că o dronă tip AI a „vânat” o țintă umană anul trecut fără a fi comandată de un controlor uman, potrivit unui raport realizat pentru Organizația Națiunilor Unite. Raportul a fost obținut de revista New Scientist.

Drona era un quadcopter Kargu-2 creat de compania turcească de tehnologie militară STM. Arma are o încărcătură explozivă, poate fi îndreptată către o țintă și detonează la impact.

Raportul, publicat la începutul acestui an, descria cum forțele Haftar au fost „vânate și lovite de la distanță” de către dronele care operau într-un mod autonom „extrem de eficient”, care nu necesita controlor uman. Dronele au fost programate să atace ținte fără a necesita conectivitate de date între operator și muniție: de fapt, o adevărată capacitate de „lovește, uită și găsire”. ”

Raportul pare să sugereze că dronele vizau oamenii din proprie inițiativă. În raport nu au fost confirmate decese, cu toate acestea, armele similare au provocat „victime semnificative” în alte situații.

Zachary Kallenborn, specialist în securitate internă, și-a exprimat îngrijorarea cu privire la acuratețea tehnologiei armelor. Scriind în Buletinul oamenilor de știință atomici, el a spus: „Sistemele actuale bazate pe învățarea automată nu pot distinge în mod eficient un fermier de un soldat. Fermierii ar putea ține o pușcă pentru a-și apăra pământul, în timp ce soldații ar putea folosi o greblă pentru a distruge o mitralieră. … Chiar și o clasificare adecvată a unui vehicul este dificilă. ”

Zachary Kallenborn a explicat cum, operarea unei drone, fără un om care să  judece circumstanțele atacului, implică riscuri prea mari. El a adăugat: „Orice armă autonomă are anumite șanse de a se da erori, dar aceste greșeli ar putea avea o gamă largă de consecințe. Armele autonome cu cel mai mare risc sunt cele care au o mare probabilitate de eroare și ucid o mulțime de oameni atunci când o fac.

„Folosirea unei muniții tip magnum .357 este un lucru; detonarea accidentală a unui focos nuclear W88 este altceva. ”, a concluzionat acesta.

Ne puteți urmări și pe Google News