Inteligența Artificială, noua armă a escrocilor online. Fraudele devin tot mai greu de depistat

Inteligența Artificială, noua armă a escrocilor online. Fraudele devin tot mai greu de depistatInteligența artificială AI. Sursa foto: Pixabay

Poliția Română trage un semnal de alarmă privind creșterea masivă a fraudelor bazate pe inteligență artificială. Deepfake-urile, imaginile generate artificial și videoclipurile hiper-realiste au devenit în 2025 instrumente preferate ale infractorilor cibernetici.

Instituția avertizează că aceste materiale nu sunt folosite doar pentru înșelăciuni financiare, ci și pentru manipulare emoțională, distrugerea reputației, dezinformare științifică sau chiar pentru crearea unor false identități ale polițiștilor.

Deepfake-urile devin cel mai folosit instrument de fraudare

Poliția Română explică faptul că tehnologia AI a avansat într-un ritm fără precedent, iar videoclipurile generate artificial pot părea autentice până la cel mai mic detaliu. Instituția arată că „deepfake-urile (videoclipuri false create cu AI) şi imaginile generate artificial au devenit instrumentele preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, promovate masiv pe reţelele de socializare”, iar persoanele de bună-credință sunt expuse unor riscuri majore deoarece cred că văd „celebrităţi, experţi financiari sau persoane aflate la nevoie”.

Tehnicile infractorilor sunt astăzi atât de bine puse la punct încât pot copia vocea, expresiile și chipul unei persoane reale într-un mod aproape imposibil de diferențiat fără analiză atentă. Poliția atrage atenția că fenomenul este amplificat de faptul că oamenii sunt predispuși să creadă ceea ce văd în videoclipuri, mai ales atunci când apar fețe cunoscute sau povești emoționale.

inteligență artificială

inteligență artificială / sursa foto: dreamstime.com

Cum arată cele mai frecvente înșelătorii generate cu AI

Poliția avertizează că infractorii nu folosesc AI doar pentru a crea fake-uri artistice, ci pentru patru categorii principale de fraude.

Prima categorie este reprezentată de schemele de investiții false. Acestea se bazează pe videoclipuri deepfake cu oameni de afaceri sau politicieni care par să „recomande” platforme de investiții crypto, forex sau aplicații care promit câștiguri miraculoase. Victimele ajung pe site-uri false și depun bani care sunt imediat retrași de infractori prin sisteme de transfer de monede virtuale sau fiat.

A doua categorie o reprezintă scam-urile caritabile. Infractorii creează deepfake-uri cu copii bolnavi, sinistrați sau chiar celebrități care cer donații urgente. Sumele trimise prin linkuri false sunt direcționate direct către conturile criminalilor.

O a treia categorie este romance scamul îmbunătățit cu AI. Infractorii creează profiluri cu poze și videoclipuri generate artificial, reprezentând persoane atractive și convingătoare. După ce câștigă încrederea victimei, cer bani pentru „urgențe medicale”, „facturi neprevăzute” sau „bilete de avion”. Tehnologia face ca poveștile să pară reale, deoarece interlocutorul poate trimite videoclipuri false în timp real.

A patra categorie este frauda de tip CEO/CFO, unde infractorii folosesc deepfake-uri într-un video-call pentru a imita șeful unei companii. Sub pretextul unei „situații urgente”, cer transferuri de bani. Practic, un angajat poate primi un apel video în care vede chipul „directorului”, când în realitate este doar o simulare extrem de credibilă.

De asemenea, Poliția Română menționează situații în care infractorii creează deepfake-uri cu celebrități care „oferă gratuit” produse, promovează investiții miraculoase sau garantează metode rapide de îmbogățire.

Impactul psihologic și financiar este uriaș

Poliția Română atrage atenția că tentativele de fraudă cu deepfake-uri au crescut exponențial. Conform datelor din 2025, pierderile financiare cauzate de astfel de scheme se ridică la zeci de miliarde de dolari anual.

Pe lângă aceste pierderi, fenomenul produce traume emoționale. Oamenii ajung să doneze ultimii bani pentru „copii bolnavi” care nu există, sau se îndrăgostesc de persoane complet fabricate de AI. În alte cazuri, reputația unei persoane poate fi distrusă prin videoclipuri compromițătoare, false, realizate fără consimțământul acesteia. Fenomenul afectează în special femeile, expuse la deepfake-uri de tip revenge porn.

inteligența artificială

inteligența artificială. Sursa foto: Freepik

Dezinformarea științifică și politică se propagă prin AI

În 2025, clipurile deepfake au intrat puternic și în zona de manipulare a opiniei publice. Poliția oferă exemple clare: videoclipuri cu „astronauți NASA” care plâng și susțin că aselenizarea ar fi fost filmată în studio, „oameni de știință renumiți” care afirmă că vaccinurile ar conține cipuri 5G, persoane care pretind că încălzirea globală este o invenție sau „martori oculari” care povestesc atrocități inventate în zone de conflict.

Instituția avertizează că aceste clipuri nu mai circulă doar pe grupuri obscure, ci ajung în trending pe rețelele sociale și sunt distribuite masiv, inclusiv de conturi cu sute de mii de urmăritori.

Cum poți recunoaște un videoclip deepfake în 2025

Poliția Română explică faptul că identificarea deepfake-urilor necesită atenție. Elementele tehnice care pot trăda falsul includ clipitul nenatural sau prea rar, deși această slăbiciune s-a diminuat mult față de anii precedenți; mișcările buzelor care nu se sincronizează perfect cu sunetul, mai ales în limbi non-engleze; diferențele de iluminare dintre față și fundal; reflexiile nenaturale în ochi sau dinți; și deformările ușoare ale mâinilor, degetelor sau obiectelor din cadru.

Un alt element este fundalul inconsistent, care pare topit sau blurat în mod nenatural. De asemenea, părul sau îmbrăcămintea pot părea lipsite de coerență fizică, iar pupilele pot avea forme asimetrice. Poliția amintește că lipsa oricărei prezențe anterioare a unei imagini pe internet, verificată prin instrumente precum reverse image search, poate fi un semnal clar de generare artificială.

Cum te protejezi în fața acestor înșelătorii

Poliția recomandă cetățenilor să trateze orice ofertă de îmbogățire rapidă ca fiind falsă, deoarece promisiunile nerealiste sunt marca înșelătoriilor. Cetățenii nu trebuie să acceseze linkuri primite din reclame sau mesaje nesolicitate și nu trebuie să trimită bani persoanelor cunoscute exclusiv online.

Instituția insistă ca oamenii să verifice întotdeauna conturile oficiale ale personalităților și ale companiilor înainte de a dona sau investi. Autentificarea în doi pași, raportarea conținutului suspect și utilizarea extensiilor de browser care detectează deepfake-urile sunt măsuri suplimentare utile. Dacă cineva a fost victima unei înșelătorii, Poliția îndeamnă la raportarea imediată a cazului, deoarece reacția rapidă poate ajuta recuperarea pagubelor.

Infractorii se dau drept polițiști. Avertisment oficial pentru populație

Un fenomen grav semnalat în ultima perioadă este apariția unor persoane care se prezintă drept ofițeri de poliție în videoclipuri deepfake. Poliția Română subliniază că nu va apela niciodată cetățenii prin video-call și nu va oferi recomandări financiare. De asemenea, instituția precizează că uniformele folosite în unele astfel de videoclipuri conțin grade inexistente și elemente care nu apar pe uniformele oficiale.

1
-1