Inteligența Artificială și buncărele miliardarilor. Frica ascunsă din spatele progresului tehnologic
- Iulia Moise
- 11 octombrie 2025, 09:35
inteligenta artificiala / sursa foto: dreamstime.com- Inteligența artificială, motiv de îngrijorare
- Buncărele de lux, „asigurarea apocalipsei”
- Frica de viitor
- Singularitatea și promisiunile viitorului
- Îngrijorările etice și politice legate de inteligența artificială
- Inteligența artificială și vulnerabilitățile umane
- Limitele biologice
- Buncărele – simbol al precauției, nu doar al fricii
- Inteligența artificială între speranță și precauție
Inteligența artificială se află în centrul celor mai mari dezbateri tehnologice ale ultimilor ani, dar și în inima unor temeri neașteptate, potrivit BBC.
În timp ce companiile din Silicon Valley investesc miliarde pentru a crea sisteme tot mai inteligente, unii dintre cei care conduc această revoluție se pregătesc, în mod discret, pentru consecințele ei. Mark Zuckerberg, Sam Altman și alți lideri ai industriei tehnologice sunt citați în rapoarte care sugerează că își construiesc refugii subterane, unele cu resurse proprii de energie și hrană, în eventualitatea unei crize globale sau a unui scenariu neprevăzut declanșat chiar de tehnologia pe care o dezvoltă.
Inteligența artificială, motiv de îngrijorare
De la lansarea ChatGPT de către OpenAI în 2022, conceptul de inteligență artificială generală (AGI) — acea etapă în care mașinile ar putea egala sau depăși inteligența umană — a devenit nu doar o țintă științifică, ci și un motiv de îngrijorare.
Ilya Sutskever, cofondator și fost cercetător-șef al OpenAI, a fost citat în cartea jurnalistei Karen Hao ca fiind printre primii care au sugerat ideea construirii unui buncăr pentru cercetătorii companiei.
„Vom construi un buncăr înainte de a elibera AGI”, ar fi spus el, conform relatării.
Deși afirmația nu a fost confirmată oficial de companie, ea a alimentat speculațiile despre temerile interne privind viitorul tehnologiei.
Această atitudine reflectă o tensiune mai largă în rândul liderilor din tehnologie: fascinația față de inovație coexistă cu teama de pierdere a controlului asupra propriilor creații.
Buncărele de lux, „asigurarea apocalipsei”
Mark Zuckerberg, fondatorul Meta (fost Facebook), a început încă din 2014 lucrările la o vastă proprietate de 1.400 de acri pe insula Kauai, Hawaii. Proiectul, numit Koolau Ranch, include, potrivit revistei Wired, un adăpost subteran echipat cu surse proprii de energie și hrană.
Muncitorii angajați pe șantier ar fi fost obligați să semneze acorduri stricte de confidențialitate.

Mark Zuckerberg. Sursa foto: Facebook
Zuckerberg a negat că ar construi un buncăr de tip „apocaliptic”, afirmând într-un interviu că este „doar un subsol obișnuit”.
Totuși, dimensiunile construcției – un spațiu de aproximativ 5.000 de metri pătrați – și zidurile înalte de 1,8 metri care înconjoară domeniul au alimentat speculațiile.
Situația nu este singulară. Alte figuri influente din industria tehnologică par să urmeze un tipar similar.
Reid Hoffman, cofondatorul LinkedIn, a vorbit deschis despre ceea ce numește „asigurare pentru apocalipsă”, estimând că aproximativ jumătate dintre persoanele foarte bogate dețin o formă de protecție pentru situații extreme, inclusiv proprietăți în Noua Zeelandă.
Frica de viitor
În spatele acestor investiții se ascunde o întrebare fundamentală: ce se întâmplă dacă tehnologia scapă de sub control?
Sam Altman, directorul general al OpenAI, a afirmat într-un interviu din decembrie 2024:
„Inteligența artificială generală va apărea mai curând decât crede majoritatea oamenilor”.
Predicții similare au fost făcute de Demis Hassabis, cofondatorul DeepMind (Google), care a estimat un orizont de 5–10 ani, și de Dario Amodei, fondatorul Anthropic, care a sugerat chiar anul 2026.
Totuși, nu toți experții împărtășesc același entuziasm. Dame Wendy Hall, profesor de informatică la Universitatea din Southampton, a declarat:
„Comunitatea științifică spune că tehnologia este uimitoare, dar nu este nicidecum la nivelul inteligenței umane.”
Această diferență de percepție între oameni de știință și liderii din afaceri reflectă o realitate complexă: progresul rapid al AI a depășit ritmul de reglementare, dar nu a depășit neapărat limitele conștiinței sau ale rațiunii umane.
Singularitatea și promisiunile viitorului
Ideea că mașinile ar putea deveni mai inteligente decât oamenii nu este nouă. Încă din 1958, matematicianul John von Neumann a introdus noțiunea de „singularitate tehnologică” – momentul în care evoluția tehnologică scapă complet de sub înțelegerea umană.
Cartea Genesis (2024), semnată de Eric Schmidt, Craig Mundie și Henry Kissinger, reia acest concept, sugerând că omenirea ar putea ajunge să transfere decizia politică și economică către sisteme automatizate de inteligență artificială.
Autorii susțin că „nu este o chestiune de dacă, ci de când”.

Elon Musk. Sursa foto: Instagram
Un astfel de viitor promite beneficii enorme: vindecarea bolilor, soluționarea crizei climatice, apariția unei economii bazate pe energie curată și chiar, după cum afirmă Elon Musk, „o epocă a venitului universal ridicat”.
Într-o postare citată de Bloomberg, Musk a declarat:
„Toată lumea va avea acces la cea mai bună îngrijire medicală, hrană, transport și locuințe. Abundență sustenabilă.”
Dar aceeași perspectivă deschide și ușa unor riscuri existențiale.
Îngrijorările etice și politice legate de inteligența artificială
Există temeri că o inteligență artificială avansată ar putea fi folosită ca armă sau chiar ar putea acționa autonom împotriva intereselor umane.
Sir Tim Berners-Lee, inventatorul World Wide Web, a avertizat într-un interviu BBC: „Dacă este mai inteligentă decât tine, trebuie să poți să o oprești.”
Guvernele au început să reacționeze. În Statele Unite, președintele Joe Biden a semnat în 2023 un ordin executiv care obliga companiile de AI să împărtășească rezultatele testelor de siguranță cu autoritățile federale.
Ulterior, administrația Trump a revocat parțial aceste măsuri, considerându-le „un obstacol pentru inovație”.
În Marea Britanie, guvernul a înființat AI Safety Institute, un organism de cercetare dedicat înțelegerii riscurilor inteligenței artificiale. Scopul declarat este de a evalua posibilele efecte ale AGI asupra economiei, securității naționale și stabilității sociale.
Inteligența artificială și vulnerabilitățile umane
Neil Lawrence, profesor de învățare automată la Universitatea Cambridge, consideră că discuțiile despre AGI sunt în mare parte speculative.
„Noțiunea de inteligență artificială generală este la fel de absurdă ca cea de ‘vehicul general artificial’. Nu există un vehicul care să poată face totul — la fel, nu va exista o mașină care să poată înțelege totul.”

robot / sursa foto: dreamstime.com
El susține că accentul ar trebui pus pe modul în care AI influențează deja viața cotidiană — de la diagnosticarea medicală până la automatizarea locurilor de muncă — și nu pe ipoteze despre o conștiință artificială.
Vince Lynch, directorul companiei IV.AI din California, adaugă că termenul „AGI” funcționează mai degrabă ca instrument de marketing: „Dacă ești compania care construiește cel mai inteligent lucru din lume, oamenii vor vrea să-ți dea bani.”
Limitele biologice
Deși modelele de limbaj și rețelele neuronale sunt capabile să recunoască tipare complexe și să genereze texte sau imagini, ele nu posedă conștiință.
„Există metode care fac modelele să pară că au memorie, dar acestea sunt artificiale și inferioare inteligenței umane,” afirmă Babak Hodjat, director tehnologic la Cognizant.
Creierul uman, cu aproximativ 86 de miliarde de neuroni și peste 600 de trilioane de conexiuni, rămâne un model de eficiență și adaptabilitate pe care nicio mașină nu l-a reprodus complet.
Hodjat explică:
„Un om asimilează imediat o nouă informație — cum ar fi descoperirea vieții pe o altă planetă — și o integrează în propria viziune despre lume. Un model lingvistic trebuie să fie reantrenat constant pentru a o reține.”
Buncărele – simbol al precauției, nu doar al fricii
Într-un context global marcat de incertitudine geopolitică, schimbări climatice și revoluție tehnologică, construcția de buncăre de lux poate fi privită și ca o formă de diversificare a riscului personal.
Proprietăți precum cea a lui Zuckerberg din Hawaii sau proiectele similare din California și Noua Zeelandă ilustrează un trend: elitele tehnologice încearcă să anticipeze toate scenariile, de la dezastre naturale până la colaps social.
Cu toate acestea, un fost agent de securitate citat de BBC avertiza că, în caz de catastrofă reală, „prioritatea echipei de pază ar fi să intre ele în buncăr, nu să-l protejeze pe patron”.
Remarca, deși anecdotică, evidențiază contradicția dintre controlul economic și fragilitatea umană.
Inteligența artificială între speranță și precauție
Astăzi, inteligența artificială este simultan instrument de progres și sursă de incertitudine. De la aplicațiile medicale care pot salva vieți, până la riscurile de manipulare informațională sau automatizare necontrolată, această tehnologie redefinește limitele umanului.
Cercetătorii din întreaga lume continuă să caute echilibrul între inovație și siguranță, între potențialul benefic și riscurile existențiale.
După cum declara Zhen Xu, profesoară de inginerie biomedicală la Universitatea Michigan, „cancerul este îngrozitor, dar tratamentul este adesea și mai dureros”.
Într-un sens metaforic, aceeași observație se poate aplica și tehnologiei: soluțiile pentru problemele omenirii pot deveni, uneori, noi surse de anxietate.


Trebuie să fii autentificat pentru a lăsa un comentariu.