Ricercatori Scoprono Falle di Sicurezza nei Modelli Open-Source di AI e ML

Image by master1305, from Freepik

Ricercatori Scoprono Falle di Sicurezza nei Modelli Open-Source di AI e ML

Tempo di lettura: 3 Min.

Di fretta? Ecco i Fatti Essenziali!

  • Sono stati scoperti oltre 30 difetti di sicurezza negli strumenti open-source di AI e ML.
  • Gravi vulnerabilità colpiscono strumenti come Lunary, ChuanhuChatGPT e LocalAI.
  • Il difetto di LocalAI permette agli attaccanti di dedurre le chiavi API attraverso l’analisi temporale.

Una recente indagine ha scoperto oltre 30 falle di sicurezza nei modelli di intelligenza artificiale (AI) e apprendimento automatico (ML) open source, sollevando preoccupazioni riguardo potenziali furti di dati e esecuzioni di codice non autorizzate, come riportato da The Hacker News (THN).

Queste vulnerabilità sono state riscontrate in strumenti ampiamente utilizzati, tra cui ChuanhuChatGPT, Lunary e LocalAI, e sono state segnalate tramite la piattaforma di bug bounty di Protect AI, Huntr, che incentiva gli sviluppatori a identificare e divulgare problemi di sicurezza.

Tra le vulnerabilità più gravi identificate, due difetti principali riguardano Lunary, un toolkit progettato per gestire grandi modelli linguistici (LLM) in ambienti di produzione.

Il primo difetto, CVE-2024-7474, è classificato come una vulnerabilità di riferimento diretto a oggetti non sicuri (IDOR). Consente a un utente con privilegi di accesso di visualizzare o eliminare i dati di altri utenti senza autorizzazione, potenzialmente portando a violazioni dei dati e perdita di dati non autorizzata.

Il secondo problema critico, CVE-2024-7475, è una vulnerabilità di controllo di accesso improprio che consente a un aggressore di aggiornare la configurazione SAML (Security Assertion Markup Language) del sistema.

Sfruttando questa lacuna, gli aggressori possono eludere la sicurezza del login per ottenere accesso non autorizzato ai dati personali, creando rischi significativi per qualsiasi organizzazione che si affida a Lunary per la gestione degli LLM.

Un’altra debolezza di sicurezza identificata in Lunary, CVE-2024-7473, coinvolge anche una vulnerabilità IDOR che permette agli aggressori di aggiornare i prompt inviati da altri utenti. Questo è possibile manipolando un parametro controllato dall’utente, rendendo possibile interferire con le interazioni altrui nel sistema.

In ChuanhuChatGPT, una vulnerabilità critica (CVE-2024-5982) permette a un aggressore di sfruttare un difetto di percorso di attraversamento nella funzione di caricamento dell’utente, come segnalato da THN.

Questo difetto può portare all’esecuzione arbitraria di codice, alla creazione di directory e all’esposizione di dati sensibili, presentando un alto rischio per i sistemi che si affidano a questo strumento. LocalAI, un’altra piattaforma open-source che permette agli utenti di eseguire LLM auto-ospitati, ha due gravi difetti che comportano rischi di sicurezza simili, ha detto THN.

Il primo difetto, CVE-2024-6983, consente l’esecuzione di codice maligno permettendo agli aggressori di caricare un file di configurazione dannoso. Il secondo, CVE-2024-7010, consente ai hacker di dedurre le chiavi API misurando i tempi di risposta del server, utilizzando un metodo di attacco temporizzato per dedurre gradualmente ogni carattere della chiave, ha notato THN.

In risposta a questi risultati, Protect AI ha introdotto un nuovo strumento chiamato Vulnhuntr, un analizzatore di codice statico Python open-source che utilizza modelli di linguaggio di grandi dimensioni per rilevare vulnerabilità nei codebase Python, ha detto THN.

Vulnhuntr suddivide il codice in parti più piccole per identificare difetti di sicurezza all’interno dei limiti di una finestra di contesto del modello di linguaggio. Scansiona i file del progetto per rilevare e tracciare potenziali debolezze dall’input dell’utente all’output del server, migliorando la sicurezza per gli sviluppatori che lavorano con il codice AI.

Queste scoperte evidenziano l’importanza critica dell’analisi di vulnerabilità continua e degli aggiornamenti di sicurezza nei sistemi di AI e ML per proteggersi dalle minacce emergenti nel panorama in continua evoluzione della tecnologia AI.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...