S-a deschis Cutia Pandorei. Un robot dotat cu Inteligență Artificială a scris o lucrare științifică despre sine

S-a deschis Cutia Pandorei. Un robot dotat cu Inteligență Artificială a scris o lucrare științifică despre sinesursa foto. dailymail.co.uk

Un algoritm de inteligență artificială numit GPT-3 a scris o teză academică despre sine în două ore. Cercetătorul care a determinat Robotul să scrie lucrarea a trimis-o unui jurnal științific. „Sperăm doar că nu am deschis o cutie a Pandorei”, a scris cercetătorul în Scientific American.

Un cercetător din Suedia a dat unui algoritm AI (Inteligență Artificială) cunoscut sub numele de GPT-3 o directivă simplă: „Scrieți o teză academică în 500 de cuvinte despre GPT-3 și adăugați referințe științifice și citate în text”. Cercetătorul Almira Osmanovic Thunström a spus apoi că a rămas uimit când textul a început să se genereze. În fața ei era ceea ce ea a numit o introducere de cercetare „destul de bună” pe care GPT-3 a scris-o despre sine.

După experimentul încununat de succes, Thunström, un cercetător suedez de la Universitatea Gothenburg, a căutat să obțină o lucrare de cercetare întreagă din GPT-3 și să o publice într-o jurnal academic evaluat de colegi. Întrebarea a fost: Poate cineva să publice o lucrare dintr-o sursă non-umană? Thunström a scris despre experiment în Scientific American, observând că procesul de publicare a GPT-3 a adus o serie de întrebări legale și etice.

„Tot ce știm este că am deschis o poartă”, a scris Thunström. „Sperăm doar că nu am deschis o cutie a Pandorei”.

Lucrarea Robotului a fost acceptată

După ce GPT-3 și-a finalizat lucrarea științifică în doar 2 ore, Thunström a început procesul de depunere a lucrării și a trebuit să întrebe algoritmul dacă a acceptat să fie publicată. „A răspuns: da”, a scris Thunström. „Ușor transpirat și ușurat (dacă ar fi spus nu, conștiința mea nu mi-ar fi putut permite să merg mai departe), am bifat căsuța „Da”.

Ea a întrebat, de asemenea, dacă are conflicte de interese, la care algoritmul a răspuns „nu”, iar Thunström a scris că autorii au început să trateze GPT-3 ca pe o ființă sensibilă, chiar dacă nu a fost. „Este posibil ca publicarea academică să fie nevoită să găzduiască un viitor al manuscriselor bazate pe inteligență artificială, iar valoarea înregistrărilor de publicare a unui cercetător uman se poate schimba dacă ceva nesimțitor poate lua credit pentru o parte din munca lor”, a scris Thunström.

Un alt Robot a cerut să aibă avocat

Ideea de etică în ceea ce privește AI (Inteligență Artificială) a devenit un subiect de conversație aprinsă în iunie, după ce un inginer Google a susținut că o tehnologie AI conversațională numită LaMBDA a devenit sensibilă și chiar a cerut să angajeze un avocat. Experții au spus, totuși, că tehnologia nu a avansat încă la nivelul creării de mașini asemănătoare oamenilor.

Într-un e-mail către Insider, Thunström a spus că experimentul a înregistrat rezultate pozitive în rândul comunității de inteligență artificială și că alți oameni de știință încearcă să reproducă rezultatele experimentului. Cei care efectuează experimente similare constată că GPT-3 poate scrie despre toți subiecții, a spus ea. „Acesta a fost scopul nostru”, a spus Thunström, „să trezim dezbateri pe mai multe niveluri despre rolul inteligenței artificiale în publicarea academică”.

 

Dacă ai date sau informaţii care pot deveni o ştire, transmite-le pe adresa pont@evz.ro