Inteligența artificială are un „risc de 70% de a ne ucide pe toți”

Inteligența artificială are un „risc de 70% de a ne ucide pe toți”Inteligență artificială. Sursa foto: Tung Nguyen/ Pixabay

În afară de eforturile sale comice, dramatice și literare, Stephen Fry este cunoscut pentru tehnofilia sa declarată. A scris cândva o rubrică pe această temă, „Dork Talk”, pentru The Guardian. În acel articol și-a prezentat acreditările afirmând că a fost proprietarul celui de-al doilea computer Macintosh vândut în Europa. În plus, a spus că nu a „întâlnit niciodată un smartphone pe care să nu-l fi cumpărat”.

Dar acum, la fel ca mulți dintre noi care au fost „pasionați de toate lucrurile digitale” la sfârșitul secolului trecut și începutul acestuia, Fry pare să aibă îndoieli cu privire la anumite proiecte tehnologice de anvergură aflate în lucru în prezent. Să luăm „planul de 100 de miliarde de dolari cu un risc de 70% de a ne ucide pe toți”.

Riscurile inteligenței artificiale

Acest plan, desigur, are legătură cu inteligența artificială în general. În special, cu „subobiectivele logice ale inteligenței artificiale de a supraviețui, de a înșela și de a obține putere”. Chiar și în acest stadiu relativ incipient de dezvoltare, am fost martorii unor sisteme AI care par să fie mult prea bune în ceea ce fac, până la punctul de a se angaja în ceea ce ar fi considerat un comportament înșelător și lipsit de etică dacă subiectul ar fi o ființă umană.

În plus, „pe măsură ce agenții AI își asumă sarcini mai complexe, aceștia creează strategii și subobiective pe care noi nu le putem vedea, deoarece sunt ascunse printre miliarde de parametri”. În plus, „presiunile de selecție cvasi-evolutive determină AI să se sustragă măsurilor de siguranță”.

Inteligența artificială AI. Sursă foto: Dreamstime

Inteligența artificială AI. Sursă foto: Dreamstime

Max Tegmark, fizician la MIT și cercetător în domeniul învățării automate, vorbește despre faptul că, „acum, construim psihopați înfiorători, super-capabili, amorali. Ei nu dorm niciodată, gândesc mult mai repede decât noi, pot face copii și nu au nimic uman la ei”.

Fry îl citează pe informaticianul Geoffrey Hinton, care avertizează că, în competiția dintre IA, „vor câștiga cele care au mai mult simț al autoconservării, vor câștiga cele mai agresive și vor apărea toate problemele pe care le au cimpanzeii săritori ca noi”. Colegul lui Hinton, Stuart Russell, explică faptul că „trebuie să ne facem griji cu privire la mașini nu pentru că sunt conștiente, ci pentru că sunt competente. Ele pot lua măsuri preventive pentru a se asigura că pot atinge obiectivul pe care i l-am dat”. Aceste măsuri pot fi mai puțin decât impecabile în ceea ce privește viața umană.

Dezvoltarea inteligenței artificiale, prudență sau risc?

Ar fi mai bine să oprim întreaga întreprindere? Fry aduce în discuție argumentul filosofului Nick Bostrom. Potrivit acestuia, „oprirea dezvoltării inteligenței artificiale ar putea fi o greșeală, deoarece am putea fi în cele din urmă eliminați de o altă problemă pe care inteligența artificială ar fi putut să o prevină”. Acest lucru ar părea să impună o formă de dezvoltare deliberat prudentă. Însă, „aproape toate fondurile pentru cercetarea în domeniul IA sunt destinate promovării capacităților în vederea obținerii de profit. Eforturile de siguranță sunt minuscule în comparație”.

„Nu știm dacă va fi posibil să menținem controlul asupra super-inteligenței”. Însă, putem „să o îndreptăm în direcția corectă, în loc să ne grăbim să o creăm fără o busolă morală și cu motive clare pentru a ne ucide”. Mintea, după cum se spune, este un servitor bun, dar un stăpân teribil, scrie Open Culture.