Gli Attacchi Phishing Generati da Intelligenza Artificiale Stanno Diventando Sempre Più Efficaci nel Prendere di Mira i Dirigenti
I dirigenti aziendali stanno diventando sempre più spesso obiettivi di sofisticate truffe di phishing, con la tecnologia AI utilizzata per creare email fraudolente iper-personalizzate.
Di fretta? Ecco i fatti essenziali!
- I bot IA analizzano i profili online per estrapolare dettagli personali per truffe mirate.
- Più del 90% degli attacchi informatici inizia con un’email di phishing, dicono gli esperti.
- Le truffe alimentate dall’IA possono eludere i filtri di posta elettronica tradizionali e le difese di cybersecurity.
Mentre l’IA si evolve rapidamente, i cybercriminali stanno sfruttando questa tecnologia in rapido sviluppo per creare attacchi che non sono solo più convincenti, ma anche più difficili da rilevare.
Le aziende leader, tra cui l’assicuratore britannico Beazley e il gigante dell’e-commerce eBay, hanno emesso avvertimenti riguardo un aumento delle truffe phishing che sembrano avere dettagli personali sui dirigenti, come riportato oggi dal Financial Times (FT).
FT osserva che queste truffe sono probabilmente alimentate dalla capacità dell’IA di analizzare i profili online e raccogliere enormi quantità di dati, che gli hacker utilizzano per costruire attacchi mirati. Inoltre, recenti ricerche hanno rivelato che i malware generati dall’IA eludono il rilevamento del programmatore nell’88% dei casi.
“La situazione sta peggiorando e sta diventando molto personale, e questo è il motivo per cui sospettiamo che dietro ci sia molto l’intelligenza artificiale,” ha detto Kirsty Kelly, Chief Information Security Officer di Beazley, come riportato dal FT. “Stiamo iniziando a vedere attacchi molto mirati che hanno raccolto un’enorme quantità di informazioni su una persona.”
Il FT sottolinea che la capacità dell’IA di elaborare e replicare toni e stili specifici è un fattore chiave che guida questi sviluppi. Può rapidamente analizzare i modelli di comunicazione di un’azienda, così come l’attività sui social media di un individuo, per personalizzare un’email di phishing che non solo è plausibile, ma anche rilevante per gli interessi o le recenti attività del destinatario.
“La disponibilità di strumenti AI generativi abbassa la soglia di ingresso per la cybercriminalità avanzata”, ha spiegato a FT Nadezda Demidova, una ricercatrice di sicurezza sulla cybercriminalità presso eBay. “Abbiamo assistito a una crescita nel volume di tutti i tipi di attacchi informatici, in particolare nelle truffe di phishing lucidate e mirate con precisione”.
L’aumento degli attacchi guidati dall’IA è una preoccupazione crescente, con l’IA che permette agli hacker di creare email di phishing “perfette” che possono bypassare le tradizionali misure di sicurezza informatica.
Kip Meintzer, un dirigente di Check Point Software Technologies, ha sottolineato a FT che l’IA offre agli hacker una capacità senza precedenti di scrivere email che sembrano indistinguibili da una corrispondenza legittima.
Le conseguenze di queste truffe possono essere gravi. Secondo l’Agenzia per la Difesa Cibernetica degli Stati Uniti, oltre il 90% dei cyberattacchi di successo inizia con un’email di phishing. Man mano che gli attacchi diventano più sofisticati, i costi associati alle violazioni dei dati stanno aumentando. IBM ha riferito che il costo medio globale di una violazione dei dati è aumentato di quasi il 10% a 4,9 milioni di dollari nel 2024.
L’IA si sta rivelando particolarmente efficace anche nelle truffe via email aziendali, un tipo di phishing che consiste nel trarre in inganno i destinatari facendo loro trasferire fondi o rivelare informazioni riservate, afferma FT. Le truffe phishing alimentate dall’IA non sono solo più difficili da individuare, ma hanno anche maggiori probabilità di eludere i filtri di posta elettronica di base e la formazione sulla sicurezza informatica.
FT spiega che i filtri tradizionali, progettati per bloccare tentativi di phishing in massa e ripetitivi, possono avere difficoltà a rilevare truffe che vengono continuamente riformulate dall’IA, aumentando ulteriormente i rischi per le aziende e gli individui.
Lascia un commento
Annulla