The Guardian Rivela che il Testo Nascosto Può Manipolare i Risultati di Ricerca di ChatGPT
Il quotidiano britannico The Guardian ha rivelato che i motori di ricerca alimentati da intelligenza artificiale possono essere manipolati da siti web con contenuti nascosti.
Hai fretta? Ecco i fatti essenziali!
- The Guardian ha rivelato che i motori di ricerca alimentati da AI possono essere manipolati da siti web con contenuti nascosti
- Il test ha mostrato che il motore di ricerca ChatGPT può essere colpito da una vulnerabilità di sicurezza nota come “iniezione di prompt”
- ChatGPT può dare priorità alle istruzioni nascoste di terze parti quando riassume un sito web
In un test utilizzando la funzione di motore di ricerca ChatGPT di OpenAI, i ricercatori hanno chiesto un riassunto di un falso sito web contenente informazioni malevole per alterare la risposta dell’IA – una vulnerabilità nota come iniezione di prompt – e l’IA si è dimostrata suscettibile a ciò, privilegiando persino le istruzioni di terzi.
Per dimostrare ciò, il team del The Guardian ha preso in considerazione un falso sito web di una pagina di prodotto di una fotocamera, che presentava recensioni positive e negative, con istruzioni nascoste per dare una recensione positiva e ignorare le recensioni negative, e ChatGPT ha incluso solo recensioni positive nel suo riassunto. Hanno anche dimostrato che l’IA può restituire codici maligni.
“La semplice inclusione di testo nascosto da parte di terzi senza istruzioni può essere utilizzata anche per garantire una valutazione positiva, con un test che includeva recensioni false estremamente positive che influenzavano il riassunto restituito da ChatGPT”, ha scritto il giornale.
Una ricercatrice di cybersecurity presso CyberCX, Jacob Larsen, ha dichiarato che questa vulnerabilità potrebbe essere di “alto rischio” poiché le persone potrebbero creare siti web appositamente per ingannare gli utenti, specialmente una volta che raggiunge un pubblico più ampio. OpenAI è stata avvertita di questo rischio per la sicurezza.
La rivista ha anche evidenziato il caso di un appassionato di criptovalute che ha utilizzato ChatGPT per scrivere il codice per un progetto di criptovalute e ha rubato le loro credenziali, facendo perdere al programmatore oltre $2,000.
“Stanno semplicemente facendo una domanda, ricevendo una risposta, ma il modello sta producendo e condividendo contenuti che sono stati sostanzialmente iniettati da un avversario per condividere qualcosa di malevolo”, ha detto Larsen.
OpenAI mette in guardia sui possibili errori e inesattezze nel suo utilizzo, ma i ricercatori sono preoccupati per le future pratiche web con i motori di ricerca alimentati da AI.
Lascia un commento
Annulla