Opinione: Le Truffe Deepfake Sfruttano l’Amore e la Fiducia Come Mai Prima D’ora

Image generated with DALL·E through ChatGPT

Opinione: Le Truffe Deepfake Sfruttano l’Amore e la Fiducia Come Mai Prima D’ora

Tempo di lettura: 7 Min.

Le truffe guidate dall’IA sono in aumento, con i cybercriminali che utilizzano la tecnologia deepfake per creare video e immagini convincenti che manipolano le vittime. Da una donna francese che credeva di aiutare Brad Pitt a una vittima convinta da un deepfake di alta qualità, i confini tra realtà e inganno si stanno offuscando. Man mano che gli strumenti AI evolvono, aumentano anche i rischi.

Molti di noi lo hanno visto nelle notizie a gennaio: una donna francese ha perso oltre $850.000 a causa dei truffatori perché credeva di dare i soldi a Brad Pitt, l’uomo con il quale pensava di aver avuto una relazione per oltre un anno.

Gli truffatori hanno utilizzato un’intelligenza artificiale generativa avanzata per creare “selfie” e fabbricare prove, convincendo la loro vittima, Anne, una designer di 53 anni in fase di divorzio, della tragica storia di un falso Pitt con urgenti necessità mediche. Hanno sostenuto che i suoi fondi erano stati congelati a causa del suo divorzio da Angelina Jolie.

Anne ha preso la coraggiosa – e rischiosa – decisione di condividere pubblicamente la sua storia, affrontando milioni di scherni, insulti e attacchi virtuali. “Come una sciocca, ho pagato… Ogni volta che dubitavo di lui, lui riusciva a dissipare i miei dubbi”, ha detto in un programma YouTube francese, come riportato dalla BBC. “Sono stata solo presa in giro, lo ammetto, ed è per questo che mi sono fatta avanti, perché non sono l’unica.”

Non lo è. Alcuni mesi dopo, la polizia spagnola ha arrestato 5 persone che hanno truffato altre due donne fingendosi Pitt. Pochi giorni fa, anche un uomo cinese è stato ingannato credendo che la sua ragazza online avesse bisogno di soldi per interventi medici e per finanziare la sua attività.

Le vittime hanno ricevuto video e fotografie personalizzate—immagini che non erano disponibili da nessun’altra parte online—rendendo ancor più convincenti le elaborate bugie dei loro ingannatori.

Un recente rapporto di Entrust suggerisce che i tentativi di Deepfake avvengono ogni 5 minuti. Ogni giorno emergono nuovi casi di persone truffate con l’intelligenza artificiale generativa, una tendenza preoccupante, soprattutto considerando le migliaia, o addirittura milioni, di persone sommerse da debiti e vergogna che non osano denunciarlo alle autorità, figuriamoci renderlo pubblico.

Incremento delle truffe DeepFake

Numerosi studi e rapporti hanno lanciato l’allarme sull’aumento delle frodi e degli attacchi informatici alimentati dall’AI. I recenti dati di TrustPair’s 2025 Fraud Trends and Insights hanno mostrato un aumento anno su anno del 118% nelle frodi guidate dall’AI, come riportato da CFO.

Ciao, Hiya, un’azienda americana specializzata in soluzioni di sicurezza vocale e prestazioni, ha recentemente condiviso i risultati di un sondaggio, rivelando che il 31% dei clienti in sei paesi ha ricevuto chiamate deepfake nel 2024, e il 45% di loro è stato truffato: il 34% di questo gruppo ha perso denaro e il 32% ha subito il furto di informazioni personali. In media, le vittime perdono oltre $500 ciascuna a causa delle truffe telefoniche.

Pochi giorni fa, The Guardian ha rivelato che una rete organizzata in Georgia, nell’Europa orientale, ha utilizzato annunci falsi su Facebook e Google per truffare oltre 6.000 persone in tutta Europa, Canada e nel Regno Unito, guadagnando $35 milioni attraverso le loro operazioni.

Circa 85 truffatori georgiani ben pagati hanno utilizzato figure pubbliche come il giornalista inglese Martin Lewis, lo scrittore e avventuriero Ben Fogle, e Elon Musk per le loro frodi. I truffatori hanno promosso false criptovalute e altri schemi di investimento, facendo trasferire denaro alle vittime attraverso banche digitali come Revolut, che ha recentemente ottenuto una licenza bancaria nel Regno Unito.

IA avanzata, truffe più sofisticate

I cybercriminali utilizzano l’IA generativa da alcuni anni, sfruttando strumenti come ChatGPT per creare e tradurre email coinvolgenti e generare contenuti testuali persuasivi. Ora, con l’evoluzione degli strumenti di IA, l’uso di immagini e video generati da IA è aumentato.

Alcune settimane fa, ByteDance ha presentato il suo ultimo strumento video AI, OmniHuman-1, capace di generare uno dei deepfake più realistici presenti sul mercato. Nel frattempo, sempre più aziende di intelligenza artificiale stanno sviluppando tecnologie simili. Sembra solo questione di tempo prima che questi strumenti vengano utilizzati anche per truffe.

Sebbene queste tecnologie possano essere usate “in buona fede” e addirittura per contrastare l’aumento delle truffe—come ‘Nonna’ Daisy, l’IA di O2, progettata per coinvolgere i truffatori in chiamate in tempo reale e distrarli dalle vere vittime—le conseguenze del loro uso malevolo sembrano incommensurabili.

Su Wizcase, abbiamo recentemente segnalato un aumento del 614% negli “Scam-Yourself Attacks”, osservando come gli hacker utilizzino le tecnologie deepfake per rendere il contenuto fasullo “più realistico” e come le aziende di social media, come Meta, abbiano dovuto intervenire nelle truffe legate alla macellazione di maiali, dal momento che molti attori di minaccia utilizzano queste piattaforme. Nella ricerca, Meta ha notato che molte truffe hanno avuto origine nelle app di incontri, dimostrando quanto l’amore romantico sia tra gli esche più comuni – ora e storicamente.

L’Amore: un’esca potente

I cybercriminali non sono solo abili nel capire e utilizzare intelligenza artificiale avanzata – hanno anche una profonda comprensione dell’intelligenza umana. Gli attori di minaccia sanno come identificare le vulnerabilità, costruire fiducia e fare le loro richieste nel momento giusto.

Lo studio Do You Love Me? Psychological Characteristics of Romance Scam Victims, pubblicato nel 2018 dalla dott.ssa Monica T. Whitty, spiega come gruppi criminali internazionali abbiano messo in atto truffe sentimentali per molti anni, anche prima di Internet, e come le donne di mezza età, ben istruite, siano propense a cadere in questo tipo di truffa, proprio come Anne.

Cosa possiamo aspettarci ora, otto anni dopo questo studio, con una tecnologia che sembra uscita da un film di fantascienza? Probabilmente, siamo tutti più vulnerabili di quanto pensiamo.

“Le vittime di questo tipo di frode sono spesso persone in cerca di significato, che sono emotivamente vulnerabili”, ha scritto Annie Lecompte, professoressa associata presso l’Università del Quebec a Montreal (UQAM), in un recente articolo pubblicato suThe Conversation. “Sebbene sia deriso e frainteso, la frode sentimentale si basa su complessi meccanismi psicologici che sfruttano la fiducia, le emozioni e la vulnerabilità delle vittime.”

Un cuore spezzato, un portafoglio vuoto

Liu – il cognome dell’uomo cinese che ha recentemente perso 200.000 yuan, circa $28.000, in una truffa alimentata dall’IA – credeva veramente che la sua fidanzata IA fosse reale, poiché vedeva foto personalizzate e persino video. Costruendo un legame emotivo sempre più forte… con i suoi truffatori.

Sebbene lui non abbia fornito ulteriori dettagli sul contesto nei rapporti, un’altra vittima, la donna di 77 anni Nikki MacLeod, lo ha fatto. Credeva anche lei di essere in una vera relazione con una fidanzata AI e le ha inviato £17,000 – circa $22,000 – attraverso bonifici bancari, PayPal e carte regalo.

“Non sono una persona stupida, ma lei è riuscita a convincermi che era una persona reale e che avremmo passato insieme la nostra vita,” ha detto MacLeod alla BBC.

MacLeod si sentiva sola e triste quando ha incontrato Alla Morgan in una chat di gruppo. Dopo un po’, MacLeod ha chiesto un video in diretta, ma Morgan ha detto che non era possibile perché lavorava su una piattaforma petrolifera. Quando MacLeod ha iniziato a sospettare, Morgan ha iniziato a inviare video realistici. “Mi ha inviato un video per dire ‘Ciao Nikki, non sono un truffatore, sono sulla mia piattaforma petrolifera’, e ne sono rimasta totalmente convinta”, ha spiegato MacLeod. Il contenuto è disponibile sul sito web della BBC, ed è facile capire perché MacLeod lo abbia creduto reale: è un deepfake di alta qualità.

La BBC ha chiesto a un esperto in cybersecurity e interazione uomo-computer dell’Università di Abertay, la Dr.ssa Lynsay Shepherd, di analizzare le foto e i video ricevuti da MacLeod. “A prima vista sembra legittimo, se non sai cosa cercare, ma se guardi gli occhi – i movimenti degli occhi non sono del tutto corretti”, ha detto la Dr.ssa Shepherd.

“I documenti sembravano veri, i video sembravano veri, la banca sembrava vera,” ha detto MacLeod. “Con l’introduzione dell’intelligenza artificiale, ogni singola cosa può essere falsa.”

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...