16 ianuarie 2026

GS NEWS

Ziar independent al românilor de pretutindeni!

IGPR trage un semnal de alarmă: DEEPFAKE-ul, noua armă a infractorilor cibernetici. Cum sunt țintiți utilizatorii cu imagini și clipuri FAKE

Inspectoratul General al Poliţiei Române (IGPR) trage un semnal de alarmă: videoclipurile și imaginile false generate cu inteligenţă artificială au devenit instrumente centrale în cele mai recente fraude online. Aceste materiale sunt distribuite masiv pe reţelele sociale și reușesc să inducă în eroare numeroși utilizatori, care cred că interacționează cu celebrităţi, experţi financiari sau persoane aflate în dificultate. Practic, tehnologii AI sunt transformate în arme de manipulare în masă.

Progresele rapide din domeniul inteligenţei artificiale permit realizarea unor clipuri și imagini cu un realism impresionant. Deși aceste tehnologii au aplicaţii legitime în divertisment și creație digitală, infractorii le-au transformat în unelte eficiente pentru escrocherii.

Potrivit IGPR, tentativele de fraudă bazate pe deepfake-uri s-au intensificat puternic în 2025, generând pierderi care, la nivel global, se ridică la zeci de miliarde de dolari anual, relatează Radio România București FM.

Principalele tipuri de fraude care folosesc materiale deepfake

1. Investiţii false și promisiuni „crypto miraculoase”
Escrocii folosesc deepfake-uri cu oameni de afaceri, influenceri sau politicieni care par să recomande platforme de investiţii fictive. Victimele ajung pe site-uri frauduloase unde își pierd rapid banii.

2. Scam-uri caritabile fabricate
Videoclipuri care prezintă copii bolnavi, victime ale dezastrelor sau celebrităţi care cer donaţii sunt folosite pentru a manipula emoţional utilizatorii și a-i determina să trimită bani prin link-uri false.

3. Romance scam cu identități create în totalitate de AI
Fotografii și clipuri ale unor „persoane perfecte”, generate artificial, sunt utilizate pentru a construi relaţii emoţionale false, urmate de cereri de bani sau date personale.

4. Fraudă tip CEO/CFO prin apeluri video deepfake
Angajaţii companiilor pot primi apeluri video în care o persoană care pare a fi șeful solicită transferuri urgente de fonduri.

5. Impersonarea celebrităţilor pentru promovarea unor produse inexistente
Clipuri deepfake credibile prezintă vedete care „oferă” gratuit produse sau servicii care nu există în realitate.

Oameni care nu există, deși par reali

Potrivit IGPR, tot mai multe fraude folosesc fotografii ale unor persoane inventate complet cu ajutorul AI. Aceste imagini sunt întâlnite în romance scams, profiluri de influenceri falși, campanii de investiţii fictive sau chiar tentative de șantaj.

Efectele fraudelor: pierderi financiare, traume și manipulare la scară largă

Consecințele acestor înșelătorii merg mult dincolo de banii pierduți. Victimele se confruntă adesea cu traume emoţionale, iar încrederea publicului în media, platformele online și instituţii este grav afectată. Deepfake-urile sunt exploatate și în scopuri de manipulare politică, răspândirea teoriilor conspiraţiei și compromiterea reputației unor persoane publice.

Cum recunoști un deepfake: semnale de alarmă indicate de IGPR

  • asincronizarea buzelor cu sunetul,

  • lumina și umbrele nefirești,

  • reflexii ciudate în ochi sau dinți,

  • mâini și degete deformate,

  • fundaluri inconsistente sau „pictate”,

  • detalii faciale ușor nenaturale.

Recomandări esențiale pentru protecție

  • evită să accesezi link-uri din reclame sau mesaje nesolicitate;

  • nu trimite bani persoanelor cunoscute doar online;

  • verifică autenticitatea conturilor publice;

  • activează autentificarea în doi pași (preferabil cu aplicații de tip Authenticator);

  • raportează conținutul suspect;

  • folosește extensii de browser specializate în detectarea deepfake-urilor;

  • în caz de fraudă, contactează imediat organele judiciare.

Deepfake-uri folosite pentru dezinformare masivă

IGPR avertizează că în 2025 s-a înregistrat o explozie de clipuri hiper-realiste cu „astronauți”, „doctori” sau „experţi” care promovează teorii conspiraţioniste — de la ideea că „Pământul este plat” până la „tratamente-minune” pentru boli grave. Multe dintre aceste materiale ajung rapid în trending, sunt redistribuite de conturi cu vizibilitate mare și, uneori, chiar preluate de televiziuni fără verificarea sursei.

Deepfake-urile reprezintă una dintre cele mai mari provocări ale erei digitale. Iar mesajul IGPR este clar: vigilenta utilizatorilor este esențială, pentru că tehnologia poate fi folosită cu o ușurință alarmantă în scopuri frauduloase și manipulative.

Print Friendly, PDF & Email