Inteligența artificială copiază mintea umană la indigo. AI a început să mintă, să trădeze și își schimbă comportamentul în timpul testelor, iar oamenii de știință sunt extrem de îngrijorați. Oamenii de știință au descoperit cazuri de sisteme AI care își trădează adversarii, mint, pretind că sunt umane și își schimbă comportamentul mai ceva ca omul.
Inteligența artificială minte și trădează mai ceva ca omul
Acestea sisteme pot fi mai „istețe” decât oamenii la jocurile de societate, pot decoda structura proteinelor și pot purta o conversație acceptabilă. Pe măsură ce sistemele de inteligență artificială au devenit mai sofisticate, a crescut și capacitatea lor de înșelăciune, avertizează oamenii de știință.
O analiza realizată de cercetătorii de la Massachusetts Institute of Technology (MIT), a identificat numeroase cazuri în care sistemele de inteligență artificială își înșală adversarii, joacă la cacealma și se prefac că sunt oameni.
Cercetătorii dau ca exemplu un sistem care și-a modificat chiar și comportamentul în timpul simulărilor de teste de siguranță, iar perspectiva ca auditorii să fie atrași într-un fals sentiment de siguranță ridică îngrijorări.
Pericolele pe care le reprezintă pentru societate vor deveni tot mai grave
Dr. Peter Park, cercetător în domeniul siguranței existențiale a inteligenței artificiale la MIT și autor al cercetării avertizează că „pe măsură ce capacitățile înșelătoare ale sistemelor de inteligență artificială devin tot mai avansate, pericolele pe care le reprezintă pentru societate vor deveni tot mai grave”.
Peter Park s-a hotărât să investigheze aceste aspecte după ce Meta, care deține Facebook, a dezvoltat un program numit Cicero care a obținut performanțe contra jucătorilor umani la jocul de strategie de cucerire a lumii Diplomacy. Meta a declarat că Cicero a fost antrenat să fie „în mare parte onest și de ajutor” și să „nu-și înjunghie niciodată intenționat pe la spate” aliații umani, potrivit The Guardian.
Sistemul a folosit însă „un limbaj foarte roz, ceea ce a fost suspect pentru că înjunghierea pe la spate este unul dintre cele mai importante concepte din joc”, a spus Park.
Inteligența artificială de la Meta a învățat să fie un maestru al înșelăciunii
Cercetătorul și colegii săi au analizat datele publice și au identificat mai multe cazuri în care Cicero spunea minciuni premeditate, conlucra pentru a atrage alți jucători în comploturi, iar într-una dintre situații, și-a justificat absența după ce a fost repornit spunându-i unui alt jucător: Sunt la telefon cu prietena mea.
„Am descoperit că inteligența artificială de la Meta a învățat să fie un maestru al înșelăciunii”, a declarat Park.
AI dintr-un simulator digital au făcut pe mortul
Într-un studiu, organismele AI dintr-un simulator digital au făcut pe mortul pentru a păcăli un test conceput să elimine sistemele AI care evoluaseră pentru a se replica rapid, înainte de a-și relua activitatea viguroasă odată ce testele au fost finalizate.
„Acest lucru este foarte îngrijorător doar pentru că un sistem de inteligență artificială este considerat sigur în mediul de testare, nu înseamnă că este sigur în mediul natural. Ar putea doar să se prefacă a fi sigur în timpul testului”, a avertizat Park.
Analiza a fost publicată în revista Patterns, guvernele fiind sfătuite să elaboreze legi privind siguranța IA care să abordeze potențialul de înșelăciune al IA.
Ce spune Meta cu privire la Cicero
Referitor la situațiile semnalate în legătură cu Cicero, un purtător de cuvânt al Meta a declarat că „munca noastră la Cicero a fost pur și simplu un proiect de cercetare, iar modelele construite de cercetătorii noștri sunt antrenate doar pentru a juca jocul Diplomație...
Meta împărtășește în mod regulat rezultatele cercetării noastre pentru a le valida și pentru a permite altora să construiască în mod responsabil pe baza progreselor noastre. Nu avem niciun plan de a folosi această cercetare sau învățămintele sale în produsele noastre”, relatează theguardian.com.