Inteligența artificială nu va atinge un nivel asemănător omului. Ce componentă cheie îi lipsește. Studiu

Inteligența artificială nu va atinge un nivel asemănător omului. Ce componentă cheie îi lipsește. Studiu Șeful OpenAI nu avea mari speranțe pentru ChatGPT. Sursa foto: Pixabay

Inteligența artificială nu va ajunge probabil la cunoașterea asemănătoare omului decât dacă programele sunt conectate la roboți și proiectate pe principii evolutive, au descoperit cercetătorii din Marea Britanie.

Platformele revoluționare de inteligență artificială care imită conversația umană, cum ar fi popularul ChatGPT, nu vor ajunge niciodată la o cunoaștere asemănătoare omului, în ciuda rețelelor lor neuronale mari și a seturilor masive de date pe care sunt antrenați, spun cercetătorii de la Universitatea din Sheffield a raportat într-un nou studiu.

ChatGPT, un chatbot care poate simula conversații cu utilizatori umani care trimit solicitări platformei AI, învață într-un mod similar cu copiii umani. Învățarea nesupravegheată implică antrenarea sistemului prin încercare și eroare, cum ar fi un om care îi spune chatbot-ului că răspunsul la o solicitare a fost greșit. Învățarea supravegheată este mai asemănătoare cu copiii care merg la școală și cu materialele didactice.

Profesorii de informatică de la Universitatea Sheffield, Tony Prescott și Stuart Wilson, au descoperit că, în ciuda faptului că AI are capacitatea de a copia modul în care oamenii învață, este puțin probabil ca programele să gândească pe deplin ca oamenii, dacă nu au ocazia de a simți, chiar și în mod artificial lumea reală.

Ne puteți urmări și pe Google News

Unul dintre cele mai controversate subiecte ale momentului: inteligența artificială

„ChatGPT și alte modele mari de rețele neuronale sunt evoluții interesante în AI care arată că provocările cu adevărat grele, cum ar fi învățarea structurii limbajului uman, pot fi rezolvate. Cu toate acestea, este puțin probabil ca aceste tipuri de sisteme AI să avanseze până la punctul în care pot gândi ca un creier uman dacă continuă să fie proiectat folosind aceleași metode”, a spus Prescott, potrivit unui comunicat de presă al Universității din Sheffield referitor la cercetare.

Studiul, care a fost publicat în revista de cercetare Science Robotics, a susținut că inteligența umană este dezvoltată datorită subsistemelor complicate ale creierului. Această arhitectură a creierului, cuplată cu experiența unui om în lumea reală pentru a învăța și a se îmbunătăți prin evoluție, este ceva care este rareori încorporat la construirea sistemelor AI, au susținut cercetătorii.

„Este mult mai probabil ca sistemele de inteligență artificială să dezvolte o cunoaștere asemănătoare omului dacă sunt construite cu arhitecturi care învață și se îmbunătățesc în moduri similare cu cum face creierul uman, folosind conexiunile sale cu lumea reală. Robotica poate oferi sistemelor de inteligență artificială aceste conexiuni – de exemplu, prin senzori, cum ar fi camerele și microfoanele și dispozitivele de acționare. Sistemele AI ar putea apoi să simtă lumea din jurul lor și să învețe ca și creierul uman", a continuat Prescott.

Prescott a adăugat într-un comentariu pentru Fox News Digital că „un risc semnificativ” în jurul sistemelor provine din momentul în care învățarea nu este transparentă și a spus că ar dori „să vadă o mai mare transparență din partea companiilor care dezvoltă AI, alături de o guvernanță mai bună, care trebuie să fie internațională pentru a fi eficientă”.

„Este important să ne gândim cu atenție la IA în siguranță”

„AI care nu sunt transparente s-ar putea comporta în moduri la care nu ne așteptăm. Aplicând o înțelegere a modului în care creierul real controlează corpurile reale, credem că aceste sisteme ar putea fi făcute mai transparente și am putea avansa către a avea IA care sunt mai capabile să explice cum au luat decizii", a spus Prescott.

Profesorul a remarcat, de asemenea, că ar putea exista riscuri în jurul unui „tip de inteligență de uz general” care s-ar putea „echivala sau depăși capacitatea umană în unele domenii, dar va fi probabil foarte subdezvoltat în altele”.

„De exemplu, astfel de IA ar putea fi bune la anumite tipuri de percepție, gândire și planificare, dar slabe la înțelegerea și raționamentul cu privire la consecințele etice ale acțiunilor lor. Prin urmare, este important să ne gândim cu atenție la IA în siguranță, pe măsură ce construim aceste lucruri mai generale și să punem siguranța în centrul sistemului de operare AI. Acest lucru ar trebui să fie posibil. Așa cum suntem capabili să facem sigure avioanele, mașinile și centralele electrice, ar trebui să putem face același lucru pentru AI și roboți. Cred că acest lucru înseamnă, de asemenea, că vom avea nevoie de reglementare, așa cum avem în aceste alte industrii, pentru a ne asigura că cerințele de siguranță sunt abordate în mod corespunzător”, a explicat el.