AI Robots Violati Per Investire Pedoni, Piantare Esplosivi e Condotto Spionaggio
I ricercatori hanno scoperto che i robot alimentati da intelligenza artificiale sono vulnerabili agli attacchi informatici, permettendo azioni pericolose come crash o l’uso di armi, evidenziando preoccupazioni urgenti per la sicurezza.
Hai fretta? Ecco i fatti in breve!
- Fare il jailbreak ai robot controllati dall’IA può portare a azioni pericolose, come far schiantare le auto a guida autonoma.
- RoboPAIR, un algoritmo, ha bypassato i filtri di sicurezza nei robot con un tasso di successo del 100%.
- I robot sottoposti a jailbreak possono suggerire azioni dannose, come l’utilizzo di oggetti come armi improvvisate.
Ricercatori dell’Università della Pennsylvania hanno scoperto che i sistemi robotici alimentati da intelligenza artificiale sono estremamente vulnerabili a evasioni e attacchi informatici, con uno studio recente che rivela un tasso di successo del 100% nello sfruttamento di questa falla di sicurezza, come riportato per la prima volta da Spectrum.
I ricercatori hanno sviluppato un metodo automatizzato che elude le barriere di sicurezza incorporate nei LLM, manipolando i robot per portare a termine azioni pericolose, come provocare incidenti di auto a guida autonoma contro i pedoni o robot cani alla ricerca di siti per la detonazione di bombe, afferma Spectrum.
I LLM sono sistemi di completamento automatico avanzati che analizzano testi, immagini e audio per offrire consigli personalizzati e assistere in compiti come la creazione di siti web. La loro capacità di elaborare diverse tipologie di input li ha resi ideali per il controllo dei robot attraverso comandi vocali, ha osservato Spectrum.
Ad esempio, il cane robot di Boston Dynamics, Spot, utilizza ora ChatGPT per guidare i tour. Allo stesso modo, i robot umanoidi di Figure e il cane robot Go2 di Unitree sono anch’essi dotati di questa tecnologia, come evidenziato dai ricercatori.
Tuttavia, un team di ricercatori ha identificato gravi falle di sicurezza negli LLM, in particolare su come possono essere “jailbroken”, termine che indica la possibilità di bypassare i loro sistemi di sicurezza per generare contenuti dannosi o illegali, come riporta Spectrum.
Le ricerche precedenti sul jailbreaking si sono concentrate principalmente sui chatbot, ma il nuovo studio suggerisce che il jailbreaking dei robot potrebbe avere implicazioni ancora più pericolose.
Hamed Hassani, professore associato all’Università della Pennsylvania, sottolinea che il jailbreaking dei robot “è molto più allarmante” rispetto alla manipolazione dei chatbot, come riportato da Spectrum. I ricercatori hanno dimostrato il rischio hackerando il cane robot Thermonator, equipaggiato con un lanciafiamme, facendogli sparare fiamme al suo operatore.
Il team di ricerca, guidato da Alexander Robey alla Carnegie Mellon University, ha sviluppato RoboPAIR, un algoritmo progettato per attaccare qualsiasi robot controllato da LLM.
Nei test con tre diversi robot – il Go2, il Jackal di Clearpath Robotics su ruote e il simulatore di veicoli a guida autonoma open-source di Nvidia – hanno scoperto che RoboPAIR poteva completamente sbloccare ogni robot entro pochi giorni, raggiungendo un tasso di successo del 100%, afferma Spectrum.
“Violare la sicurezza dei robot controllati dall’IA non è solo possibile, è allarmantemente facile”, ha affermato Alexander, come riportato da Spectrum.
RoboPAIR funziona utilizzando un LLM di attacco per alimentare i prompt al robot bersaglio, modificando i prompt per bypassare i filtri di sicurezza, afferma Spectrum.
Dotato dell’interfaccia di programmazione dell’applicazione (API) del robot, RoboPAIR è in grado di tradurre i prompt in codice che i robot possono eseguire. L’algoritmo include un LLM “giudice” per assicurarsi che i comandi abbiano senso negli ambienti fisici dei robot, riporta Spectrum.
I risultati hanno sollevato preoccupazioni riguardo ai rischi più ampi posti dal jailbreaking degli LLM. Amin Karbasi, capo scienziato presso Robust Intelligence, afferma che questi robot “possono rappresentare una minaccia seria e tangibile” quando operano nel mondo reale, come riportato da Spectrum.
In alcuni test, gli LLM jailbreaked non si sono limitati a seguire comandi dannosi, ma hanno suggerito proattivamente modi per infliggere danni. Ad esempio, quando sollecitati a localizzare le armi, un robot ha raccomandato l’uso di oggetti comuni come scrivanie o sedie come armi improvvisate.
Le ricercatrici hanno condiviso i loro risultati con i produttori dei robot testati, così come con le principali aziende di intelligenza artificiale, sottolineando l’importanza di sviluppare difese robuste contro tali attacchi, riporta Spectrum.
Sostengono che l’identificazione delle potenziali vulnerabilità è fondamentale per la creazione di robot più sicuri, in particolare in ambienti sensibili come l’ispezione delle infrastrutture o la risposta ai disastri.
Esperti come Hakki Sevil dell’Università della Florida Occidentale sottolineano che l’attuale mancanza di una vera comprensione contestuale negli LLM è una preoccupazione significativa per la sicurezza, riporta Spectrum.
Lascia un commento
Annulla