OpenAI, compania din spatele ChatGPT pregătește un proiect bazat pe inteligența artificială, Q* (Q Star). Mulți lideri mondiali consideră că acesta ar putea fi un pericol pentru umanitate.
OpenAI, compania din spatele ChatGPT pregătește un proiect bazat pe inteligența artificială, Q* (Q Star). Acest proiect ar putea ajuta la dezvoltarea unei super-inteligențe artificiale, cunoscute în termenii de specialitate drept Artificial General Intelligence sau pe scurt AGI.
Noul proiect OpenAI, extrem de controversat
Compania definește AGI ca fiind un sistem autonom capabil să depășească performanțele umane în majoritatea sarcinilor economice cheie. AGI ar putea fi mai bun și mai inteligent ca un om. Cercetătorii au declarat că proiectul Q* este foarte periculos și că nimeni nu știe ce va urma.
Elon Musk, despre evoluția necontrolată a AI
Elon Musk, dar și alți miliardari au spus că riscurile asociate cu o evoluție rapidă și necontrolată a inteligenței artificiale va veni cu multe situații neplăcute. În cadrul unei conversații recente cu prim-ministrul britanic Rishi Sunak la Summitul din UK de luna aceasta, Musk a descris AI ca fiind „una dintre cele mai perturbatoare forțe din istorie”.
CEO-ul Tesla a mai spus AI ar putea crea o „eră a abundenței” în care oamenii se vor bucura de un venit universal ridicat, asistență educațională personalizată și companii AI. El a luat în considerare și riscul ca aceasta să evolueze într-o direcție negativă, potrivit TVR.
Scrisoare către conducerea Open AI
Recent, inteligența artificială care poate amenința omenirea a fost subiectul unei scrisori interne trimisă de angajați conducerii OpenAI, chiar înainte de concedierea lui Sam Altman. Mai mulţi cercetători din cadrul personalului startup-ului au scris o scrisoare către Consiliul de Administraţie în care avertizau asupra unei descoperiri puternice în materie de inteligenţă artificială despre care au spus că ar putea ameninţa omenirea.
Scrisoarea şi algoritmul de inteligenţă artificială au fost evoluţii cheie înainte de înlăturarea lui Altman de către Consiliul de Administraţie. În scrisoarea lor către Consiliu, cercetătorii au semnalat probele de inteligenţă artificială şi potenţialul pericol.