
Image by standret, from Freepik
È stata scoperta una grave falla di sicurezza nel Framework AI di Meta
È stata identificata una grave vulnerabilità di sicurezza, CVE-2024-50050, nel framework open-source di Meta per l’IA generativa, noto come Llama Stack.
Hai fretta? Ecco i Fatti Essenziali!
- La vulnerabilità, CVE-2024-50050, consente l’esecuzione di codice remoto tramite dati deserializzati non affidabili.
- Meta ha risolto il problema nella versione 0.0.41 con un’implementazione Pydantic JSON più sicura.
- La vulnerabilità ha ottenuto un punteggio di 9.3 (critico) su CVSS 4.0 a causa della sua sfruttabilità.
Il difetto, rivelato dal team di ricerca Oligo, potrebbe permettere agli aggressori di eseguire a distanza codice maligno sui server che utilizzano il framework. La vulnerabilità, causata da una gestione non sicura dei dati serializzati, mette in luce le continue sfide nella sicurezza degli strumenti di sviluppo dell’IA.
Llama Stack, introdotto da Meta nel luglio 2024, supporta lo sviluppo e il dispiegamento di applicazioni AI costruite sui modelli Llama di Meta. Il team di ricerca spiega che il difetto risiede nel suo server predefinito, che utilizza la libreria pyzmq di Python per gestire i dati.
Un metodo specifico, recv_pyobj, elabora automaticamente i dati con il modulo pickle non sicuro di Python. Questo rende possibile per gli attaccanti inviare dati dannosi che eseguono codice non autorizzato. I ricercatori affermano che, quando esposti su una rete, i server che eseguono la configurazione predefinita diventano vulnerabili all’esecuzione di codice remoto (RCE).
Tali attacchi potrebbero risultare in furti di risorse, violazioni di dati o controllo non autorizzato sui sistemi AI. La vulnerabilità è stata assegnata con un punteggio CVSS critico di 9.3 (su 10) dalla società di sicurezza Snyk, anche se Meta l’ha valutata come di gravità media a 6.3, come riferito da Oligo.
I ricercatori di Oligo hanno scoperto la falla durante la loro analisi dei framework AI open-source. Nonostante la rapida ascesa di popolarità di Llama Stack – è passato da 200 stelle GitHub a oltre 6.000 in pochi mesi – il team ha segnalato l’uso rischioso di pickle per la deserializzazione, una causa comune delle vulnerabilità RCE.
Per sfruttare la falla, gli aggressori potrebbero cercare porte aperte, inviare oggetti dannosi al server e innescare l’esecuzione del codice durante la deserializzazione. L’implementazione predefinita di Meta per il server di inferenza di Llama Stack si è dimostrata particolarmente suscettibile.
Meta ha prontamente risolto il problema dopo la divulgazione di Oligo nel settembre 2024. Entro ottobre, è stata rilasciata una patch, che ha sostituito la deserializzazione basata su pickle, insicura, con un’implementazione JSON più sicura e validata per tipo, utilizzando la libreria Pydantic. Si consiglia agli utenti di aggiornare alla versione 0.0.41 o superiore di Llama Stack per proteggere i loro sistemi.
I manutentori di pyzmq, la libreria utilizzata in Llama Stack, hanno anche aggiornato la loro documentazione per mettere in guardia contro l’uso di recv_pyobj con dati non affidabili.
Questo incidente sottolinea i rischi dell’uso di metodi di serializzazione non sicuri nel software. Si incoraggiano gli sviluppatori a fare affidamento su alternative più sicure e ad aggiornare regolarmente le librerie per mitigare le vulnerabilità. Per strumenti di intelligenza artificiale come Llama Stack, le misure di sicurezza robuste rimangono vitali poiché questi framework continuano a alimentare applicazioni aziendali critiche.
Lascia un commento
Annulla