Clipuri făcute cu AI, folosite pentru înșelăciuni. Cum poți să le depistezi

Clipuri făcute cu AI, folosite pentru înșelăciuni. Cum poți să le depistezi

Poliția Română avertizează că multe dintre clipurile de pe internet sunt făcute special să fie folosite pentru a escroca. Sunt câteva tipuri de înșelăciuni care prind foarte bine la public, dar chiar și acestea pot fi demascate.

Inteligența artificială face ravagii în buzunare

Foarte multe din materialele video generate cu AI sunt folosite pentru fraude financiare. Poliția Română spune că cele mai comune sunt legate de investiții, falsificarea apelurilor caritabile, escrocherii romantice și celebrități ”aflate la ananghie”. Mare atenție la clipurile în care apar oameni de afaceri sau politicieni care recomandă diferite platforme de trading sau crypto.

Inteligența artificială

Inteligența artificială. Sursa foto. Pixabay

În special cele care promit multiplicarea banilor peste noapte. În aceiași categorie se înscriu și scamurile caritabile. Este vorba despre clipuri în care apar copii bolnavi, victime ale dezastrelor sau celebrități care cer donații. Oamenii donează prin intermediul unor link-uri false, iar sumele de bani merg direct la infractori.

Cum cer bani infractorii

O altă metodă de înșelăciune este cea cu profiluri false generate cu AI, în care apar persoane atrăgătoare, dar care nu sunt reale. Acestea vor cere la un moment dat bani pentru diferite întrebuințări, bilete de avion sau rezolvarea unor probleme urgente.

„Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligență artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari, anual”, spune Poliția Română.

Cum identificăm deepfake-ul

În primul rând clipitul ochilor este inconsistent. Mișcările buzelor și sunetul nu sunt mereu corelate. Lumina de pe față trebuie să se potrivească cu fundalul. Prea multe degete sau prea puține, ochi asimetrici sau pupile anormale, păr anormal sau îmbrăcăminte ciudată, sunt alte aspecte care pot atrage atenția.

„În ultima perioadă, au fost reclamate mai multe fapte realizate cu inteligența artificială, fiind create mai multe videoclipuri false cu un ofițer de poliție sau cu alte persoane care se recomandă a fi consultanți financiari, în vederea inducerii în eroare a victimelor de a realiza investiții fictive sau a obține date financiare pentru a putea efectua, ulterior, tranzacții neautorizate. În acest sens, pe lângă recomandările sus-menționate, facem precizarea că niciodată polițiștii nu vor apela cetățenii cu video, prin intermediul anumitor aplicații și cu atât mai mult nu vor face recomandări de investiții”, au mai explicat cei de la IGPR.

 

1
1