Ricercatori rivelano che l’IA può vedere il tuo schermo tramite perdite del cavo HDMI
Un nuovo studio rivela che gli hacker possono intercettare le radiazioni elettromagnetiche provenienti dai cavi HDMI per decodificare il contenuto dello schermo, utilizzando l’intelligenza artificiale. Questa sofisticata forma di intercettazione, sebbene preoccupante, rappresenta principalmente una minaccia per gli ambienti ad alta sicurezza piuttosto che per gli utenti ordinari.
La connessione tra computer e schermi era una volta interamente analogica, ma oggi è per lo più digitale, trasmettendo dati in binario attraverso cavi dell’interfaccia multimediale ad alta definizione (HDMI). Ogni volta che un segnale viaggia attraverso un cavo, fuoriesce una certa quantità di radiazioni elettromagnetiche, e con i segnali analogici, gli hacker potevano intercettare relativamente facilmente questa dispersione.
Gli attacchi che sfruttano questo fenomeno sono noti come TEMPEST. Sebbene i segnali digitali siano più complessi e trasportino più dati, rendendoli più difficili da decodificare, possono comunque essere intercettati.
Federico Larroca e il suo team presso la Universidad de la República Uruguay, hanno sviluppato un modello di intelligenza artificiale in grado di ricostruire questi segnali digitali intercettati da pochi metri di distanza.
Hanno valutato le prestazioni del modello confrontando il testo catturato dall’immagine ricostruita con l’immagine originale dello schermo. L’IA ha raggiunto un tasso di errore di circa il 30 percento, il che significa che la maggior parte del testo poteva essere letta con precisione nonostante alcuni caratteri fossero stati interpretati in modo errato. Questo rappresenta un miglioramento notevole, con un tasso di errore del 60 percento inferiore rispetto ai metodi precedenti.
I hacker potrebbero utilizzare questa tecnica per spiare informazioni sensibili come password e dettagli bancari visualizzati su uno schermo. Possono farlo intercettando i segnali con antenne remote o dispositivi nascosti.
In un’intervista con New Scientist, Larroca afferma: “I governi sono preoccupati per questo, [ma] non direi che l’utente normale dovrebbe essere troppo preoccupato,[…] Ma se ti preoccupi davvero della tua sicurezza, qualunque siano i tuoi motivi, questo potrebbe essere un problema.”
Per mitigare questi rischi, i ricercatori propongono due contromisure che possono essere implementate modificando l’immagine visualizzata in un modo quasi impercettibile per l’utente ma che interrompe la capacità dell’IA di decodificare i segnali intercettati. Un metodo prevede l’aggiunta di un rumore di basso livello all’immagine, che agisce come un attacco avversario sulla rete neurale, rendendo il testo risultante in gran parte illeggibile. Un altro approccio è l’uso di un gradiente di colore sullo sfondo dell’immagine, come una rampa da bianco a nero, che altera significativamente il segnale intercettato.
Lascia un commento
Annulla