Partea întunecată a modei caricaturilor generate de ChatGPT. Experții avertizează: „Furt de identitate, fraudă sau prejudicii de imagine”

Partea întunecată a modei caricaturilor generate de ChatGPT. Experții avertizează: „Furt de identitate, fraudă sau prejudicii de imagine”ChatGPT generează, mai nou, și caricaturi pentru utilizatori / sursa foto: dreamstime.com

Un nou trend generat de ChatGPT a cucerit rețelele sociale în februarie 2026, transformând fluxurile de pe Instagram, WhatsApp, LinkedIn și X într-o galerie de caricaturi personalizate. Specialiștii avertizează, însă, că utilizatorii se expun la furt de identitate, fraudă sau prejudicii de imagine, relatează The Sun.

Utilizatorii îi cer inteligenței artificiale: „Creează o caricatură a mea și a jobului meu pe baza a tot ce știi despre mine.” Rezultatul? Imagini detaliate care surprind profesii, hobby-uri și trăsături de personalitate. Însă, în spatele distracției apar semnale serioase de alarmă din partea experților în securitate cibernetică.

La ce pericole se expun cei care apelează la caricaturile ChatGPT

Specialiștii avertizează că acest fenomen reprezintă o normalizare a „expunerii excesive a datelor”. Dr. Janet Bastiman, Chief Data Scientist la Napier AI, explică: „În mai puțin de o oră, un sistem AI poate acumula suficiente informații pentru a imita convingător o persoană, expunând utilizatorii la furt de identitate, fraudă sau prejudicii de imagine.”

Ea subliniază că mulți oameni nu știu unde sunt stocate datele lor, cât timp sunt păstrate sau cine are acces la ele.

Odată încărcate, informațiile nu pot fi garantat șterse complet sau controlate

Matt Conlon, CEO și cofondator al Cytidel, compară trendul actual cu începuturile rețelelor sociale precum Bebo și Facebook, când utilizatorii publicau liste cu „15 lucruri interesante despre mine”, fără să realizeze că dezvăluiau răspunsuri la întrebări de securitate.

Diferența acum este amploarea și permanența. Utilizatorii oferă informații tot mai detaliate pentru a ‘îmbunătăți’ rezultatul generat de AI. Dacă imaginea nu este suficient de precisă, adaugă mai mult context, antrenând practic modelul cu date extrem de personale”, spune el.

Conlon avertizează că ceea ce pare o distracție inofensivă poate deveni o problemă reală de securitate în viitor, deoarece „odată încărcate, informațiile nu pot fi garantat șterse complet sau controlate”.

ChatGPT

ChatGPT, foarte utilizat în întreaga lume. Sursă foto: Unsplash

Ce riscă cei care încarcă imagini într-un program AI

Dr. Andrew Bolster, specialist în cercetare și dezvoltare la Black Duck, face o paralelă cu scandalul Cambridge Analytica din 2018. El amintește că, în anii 2010, quiz-urile aparent inofensive de pe rețelele sociale au colectat date care au fost ulterior folosite pentru orientare politică și publicitară.

Încărcarea unei imagini într-un program AI permite procesarea trăsăturilor faciale – ochi, nas, structură osoasă – care pot fi considerate date biometrice”, avertizează el.

La rândul lui, Muhammad Yahya Patel, consilier în securitate cibernetică la Huntress, atrage atenția asupra riscurilor suplimentare: „Există riscul ca oamenii să ofere și mai mult context personal. Aici mă refer la nume, angajator, logo-uri, legitimații, profiluri LinkedIn pentru a obține o imagine mai exactă.

El subliniază că, dacă utilizatorii nu au optat explicit pentru excluderea datelor din procesul de antrenare, imaginile pot fi folosite pentru îmbunătățirea modelelor AI. „Nu există nicio garanție că datele nu sunt reținute, dacă acest lucru nu este menționat clar”, spune el.

Ce opțiuni de protecție sunt disponibile

Totuși, există și opțiuni de protecție. Brian Higgins, specialist în securitate la Comparitech, afirmă: „Vestea bună este că GPT nu vinde datele, dar le păstrează pentru a-și antrena modelul.

El recomandă utilizatorilor să dezactiveze opțiunea de training, să folosească „Temporary Chat”, să șteargă conversațiile și să curețe memoria contului. „Cel puțin, merită să analizați atent orice produs generat de GPT înainte de a-l publica”, avertizează Higgins.