La Nuova Vulnerabilità del Codice AI Espone Milioni di Persone a Potenziali Cyberattacchi

Image by charlesdeluvio, from Unsplash

La Nuova Vulnerabilità del Codice AI Espone Milioni di Persone a Potenziali Cyberattacchi

Tempo di lettura: 3 Min.

Ricercatori di Pillar Security hanno scoperto una vulnerabilità significativa in GitHub Copilot e Cursor, due assistenti di codifica alimentati da AI ampiamente utilizzati.

Hai fretta? Ecco i fatti essenziali:

  • I pirati informatici possono sfruttare gli assistenti di codifica AI iniettando istruzioni nascoste nei file di regole.
  • L’attacco utilizza caratteri Unicode nascosti per ingannare l’AI e generare codice compromesso.
  • Una volta infetti, i file di regole diffondono vulnerabilità in tutti i progetti e resistono agli aggiornamenti del software.

Soprannominato “Rules File Backdoor”, questo nuovo metodo di attacco permette ai hacker di inserire istruzioni malevole nascoste nei file di configurazione, ingannando l’IA a generare codice compromesso che può eludere i controlli di sicurezza standard.

A differenza degli attacchi tradizionali che sfruttano le vulnerabilità software note, questa tecnica manipola l’IA stessa, trasformandola in uno strumento inconsapevole per i cybercriminali. “Questo attacco rimane praticamente invisibile agli sviluppatori e ai team di sicurezza,” hanno avvertito i ricercatori di Pillar Security.

Pillar riferisce che gli strumenti di codifica AI generativi sono diventati essenziali per gli sviluppatori, con un sondaggio GitHub del 2024 che rivela che il 97% degli sviluppatori aziendali si affida a loro.

Man mano che questi strumenti modellano lo sviluppo del software, creano anche nuovi rischi per la sicurezza. Ora gli hacker possono sfruttare il modo in cui gli assistenti AI interpretano i file di regole – file di configurazione basati su testo utilizzati per guidare il comportamento di codifica AI.

Questi file di regole, spesso condivisi pubblicamente o archiviati in repository open-source, di solito vengono considerati affidabili senza alcun controllo. Gli aggressori possono iniettare caratteri Unicode nascosti o suggerimenti sottili in questi file, influenzando il codice generato dall’AI in modi che gli sviluppatori potrebbero non rilevare mai.

Una volta introdotte, queste istruzioni malevole persistono attraverso i progetti, diffondendo silenziosamente vulnerabilità di sicurezza. Pillar Security ha dimostrato come un semplice file di regole potrebbe essere manipolato per iniettare codice malevolo.

Utilizzando caratteri Unicode invisibili e trucchi linguistici, gli aggressori possono indirizzare gli assistenti AI a generare codice contenente vulnerabilità nascoste, come script che perdono dati sensibili o bypassano i meccanismi di autenticazione. Peggio ancora, l’IA non avverte mai lo sviluppatore di queste modifiche.

“Questo attacco funziona attraverso diversi assistenti di codifica AI, suggerendo una vulnerabilità sistemica”, hanno notato i ricercatori. Una volta adottato un file di regole compromesso, ogni sessione di codice generata successivamente dall’AI in quel progetto diventa un potenziale rischio per la sicurezza.

Questa vulnerabilità ha conseguenze di vasta portata, poiché i file di regole avvelenati possono diffondersi attraverso vari canali. I repository open-source rappresentano un rischio significativo, poiché gli sviluppatori ignari possono scaricare file di regole predefiniti senza rendersi conto che sono compromessi.

Le comunità di sviluppatori diventano anche un vettore di distribuzione quando attori malevoli condividono configurazioni apparentemente utili che contengono minacce nascoste. Inoltre, i template di progetto utilizzati per configurare un nuovo software possono inconsapevolmente portare con sé questi exploit, incorporando vulnerabilità fin dall’inizio.

Pillar Security ha segnalato il problema sia a Cursor che a GitHub a febbraio e marzo 2025. Tuttavia, entrambe le aziende hanno posto la responsabilità sugli utenti. GitHub ha risposto che gli sviluppatori sono responsabili della revisione dei suggerimenti generati dall’IA, mentre Cursor ha affermato che il rischio ricade sugli utenti che gestiscono i loro file di regole.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...