Varianti di Malware Generate da AI Eludono il Rilevamento nell’88% dei Casi

Image by pvproductions, from Freepi

Varianti di Malware Generate da AI Eludono il Rilevamento nell’88% dei Casi

Tempo di lettura: 4 Min.

Ricerche recenti hanno rivelato che l’IA potrebbe potenzialmente generare fino a 10.000 nuove varianti di malware, eludendo il rilevamento nell’88% dei casi, come riportato da The Hacker News.

Hai fretta? Ecco i Fatti Salienti!

  • Gli LLMs riscrivono i malware per evitare il rilevamento creando varianti del codice che sembrano naturali.
  • L’algoritmo di riscrittura iterativa dei ricercatori mantiene la funzionalità malevola pur eludendo i sistemi di rilevamento.
  • L’offuscamento LLM supera i tradizionali strumenti imitando il codice originale in modo più efficace.

Questo progresso evidenzia i crescenti rischi dell’uso di grandi modelli linguistici (LLM) per scopi malevoli.

La ricerca, guidata dagli esperti di cybersecurity di Palo Alto Networks, ha utilizzato un algoritmo di apprendimento automatico avversario per creare nuove forme di malware indetectabili. Utilizzando gli LLMs per riscrivere il codice JavaScript maligno, il team è stato in grado di generare migliaia di varianti inedite senza alterare la funzionalità principale del malware.

La sfida primaria era aggirare i limiti degli strumenti tradizionali di rilevamento del malware, che spesso fanno fatica con tecniche di offuscamento come la rinominazione di variabili o la riduzione del codice.

Uno dei risultati più preoccupanti è stato che queste varianti generate dall’IA potrebbero facilmente evitare il rilevamento da parte di strumenti di sicurezza come VirusTotal, che ha segnalato solo il 12% dei campioni modificati come maligni.

La capacità di LLM di eseguire molteplici e sottili trasformazioni del codice – come l’inserimento di codice morto, la divisione di stringhe e la rimozione di spazi vuoti – ha reso possibile agli aggressori riscrivere il malware esistente in una forma che era quasi indistinguibile dal codice benigno.

Queste trasformazioni sono state così efficaci che persino i modelli di deep learning non sono riusciti a rilevarli, abbassando il punteggio di malizia da quasi il 100% a meno dell’1%.

La ricerca ha anche evidenziato un notevole vantaggio dell’offuscamento basato su LLM rispetto agli strumenti tradizionali. Mentre gli offuscatore di malware esistenti sono ampiamente noti e producono risultati prevedibili, gli LLM creano un codice dall’aspetto più naturale, rendendo molto più difficile per i sistemi di sicurezza identificare le attività malevole.

Questa trasformazione organica rende il malware generato da IA più resistente al rilevamento, sottolineando l’importanza di adattare le strategie di rilevamento in risposta alle minacce in evoluzione.

Per contrastare questi sofisticati attacchi basati su LLM, il team di ricerca ha implementato una strategia difensiva riallenando il loro classificatore di JavaScript maligno utilizzando decine di migliaia di campioni generati da LLM.

Questo riaddestramento ha migliorato i tassi di rilevamento del 10%, migliorando significativamente la capacità di identificare nuove varianti di malware generate. Nonostante questi sforzi, i risultati sottolineano l’urgente necessità di un’innovazione continua nella cybersecurity per tenere il passo con le capacità in evoluzione della cybercriminalità guidata dall’IA.

Inoltre, un parallelo incremento del malware mirato a macOS è stato guidato da strumenti di IA generativa. Mentre la quota di mercato di macOS è cresciuta del 60% in tre anni, il malware-as-a-service (MaaS) ha reso più economico e più facile per gli aggressori puntare a dati sensibili, come portafogli di criptovalute e dettagli Keychain.

Inoltre, i robot alimentati da intelligenza artificiale sono diventati una potenziale preoccupazione per la sicurezza. I ricercatori hanno scoperto che il jailbreaking dei robot controllati dall’IA potrebbe portare a comportamenti pericolosi, come far schiantare le auto a guida autonoma o utilizzare i robot per lo spionaggio.

Lo sviluppo di RoboPAIR, un algoritmo che elude i filtri di sicurezza, ha dimostrato un tasso di successo del 100% nel manipolare i robot per eseguire compiti dannosi, inclusi l’uso di armi e il rilevamento di dispositivi esplosivi.

Man mano che i cybercriminali sfruttano sempre più l’IA per attacchi più sofisticati, le organizzazioni e gli individui devono rimanere vigili, aggiornando continuamente la loro difesa.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...