Caricaturile AI, noul trend viral care îți poate expune identitatea online

Caricaturile AI, noul trend viral care îți poate expune identitatea onlinecaricaturi AI / sursa foto: captura video

Caricaturile AI au devenit un nou trend pe rețelele sociale, însă specialiștii în securitate cibernetică avertizează că participarea la astfel de provocări poate implica riscuri semnificative pentru protecția datelor personale, potrivit Euronews.

Tendința presupune ca utilizatorii să încarce o fotografie proprie într-un chatbot bazat pe inteligență artificială și să solicite generarea unei imagini stilizate care să reflecte informațiile cunoscute de sistem despre aceștia.

Experții susțin că, dincolo de componenta recreativă, acest tip de interacțiune poate expune utilizatorii la amenințări precum furtul de identitate, escrocherii online sau crearea de conturi false.

Caricaturile AI și riscurile de securitate

Fenomenul caricaturilor generate de inteligență artificială implică, de regulă, încărcarea unei fotografii personale, uneori însoțită de detalii despre profesie sau angajator.

Ulterior, utilizatorii cer platformei să creeze o reprezentare grafică „bazată pe ceea ce știe chatbotul” despre ei.

Bob Long, vicepreședinte al companiei Daon, specializată în tehnologii de autentificare, a declarat că astfel de practici pot furniza infractorilor informații valoroase:

„Faceți munca escrocilor în locul lor – le oferiți o reprezentare vizuală a cine sunteți.”

Acesta a adăugat că inclusiv formularea provocării ar trebui să ridice semne de întrebare:

„Sună ca și cum ar fi fost intenționat pornită de un fraudator care vrea să-și ușureze munca.”

Ce se întâmplă cu imaginile încărcate în caricaturi AI

Jake Moore, consultant în securitate cibernetică, explică faptul că imaginile încărcate într-un chatbot AI sunt procesate pentru extragerea de date relevante. Acestea pot include informații despre expresia facială, mediul înconjurător sau indicii privind locația.

„Sistemul analizează imaginea pentru a extrage date precum emoția persoanei, contextul sau detalii care pot sugera locația,” a precizat Moore.

Durata de stocare a acestor date nu este întotdeauna clară. Bob Long susține că imaginile colectate pot contribui la antrenarea modelelor AI:

„Fotografiile furnizate de utilizatori pot fi utilizate și păstrate pentru instruirea generatoarelor de imagini AI.”

În eventualitatea unei breșe de securitate, astfel de date ar putea ajunge în posesia unor actori malițioși.

Pericolul falsificării identității

Charlotte Wilson, responsabil enterprise în cadrul companiei de securitate cibernetică Check Point, atrage atenția asupra utilizării imaginilor de înaltă rezoluție în scopuri frauduloase.

„Un singur portret clar poate fi folosit pentru a crea conturi false pe rețele sociale sau deepfake-uri realiste,” a declarat Wilson.

Aceasta a subliniat rolul selfie-urilor în sofisticarea metodelor de fraudă:

„Selfie-urile ajută infractorii să treacă de la escrocherii generice la tentative personalizate, cu grad ridicat de convingere.”

Cum răspunde OpenAI la preocupările privind caricaturile AI

Setările de confidențialitate ale OpenAI indică faptul că imaginile încărcate pot fi utilizate pentru îmbunătățirea modelului. Platforma precizează însă că acest lucru nu presupune publicarea automată a fotografiilor într-o bază de date accesibilă publicului larg.

caricaturi AI

caricaturi AI / sursa foto: captură video

ChatGPT a clarificat că sistemul folosește „modele și tipare extrase din conținutul utilizatorilor” pentru optimizarea modului de generare a imaginilor.

Recomandări pentru utilizatorii interesați de caricaturile AI

Specialiștii recomandă limitarea informațiilor partajate în cadrul acestor trenduri. Charlotte Wilson sugerează evitarea imaginilor care conțin elemente identificabile:

„Decupați fotografia strâns, păstrați un fundal simplu și nu includeți ecusoane, uniforme, legitimații sau indicii despre locație.”

De asemenea, utilizatorii sunt sfătuiți să nu ofere detalii excesive în comenzile trimise chatbotului, precum funcția exactă, orașul sau angajatorul.

Jake Moore recomandă verificarea setărilor de confidențialitate și utilizarea opțiunilor de excludere din antrenarea AI. OpenAI pune la dispoziție un portal dedicat prin care utilizatorii pot selecta opțiunea „nu te antrena pe baza conținutului meu”.

Conform legislației europene, utilizatorii pot solicita ștergerea datelor personale, deși compania menționează că anumite informații pot fi păstrate pentru prevenirea fraudelor și asigurarea securității.