Rivelato da Ricercatori dell’Università di Keele: Rilevatore di Fake News con una Precisione del 99%
I ricercatori dell’Università di Keele hanno sviluppato uno strumento progettato per rilevare le notizie false con una precisione del 99%, offrendo una potenziale risorsa per affrontare il crescente problema della disinformazione online. Lo sviluppo è stato annunciato ieri dall’università.
In fretta? Ecco i fatti essenziali!
- I ricercatori dell’Università di Keele hanno sviluppato uno strumento che rileva le notizie false con un’accuratezza del 99%.
- Lo strumento utilizza un sistema di “votazione di insieme” che combina diversi modelli di apprendimento automatico.
- Lo strumento valuta il contenuto delle notizie per determinare l’affidabilità della fonte.
Il team, composto dalla Dr.ssa Uchenna Ani, Dr.ssa Sangeeta Sangeeta e Dr.ssa Patricia Asowo-Ayobode della Scuola di Informatica e Matematica, ha utilizzato varie tecniche di apprendimento automatico per creare un modello in grado di analizzare i contenuti delle notizie per valutarne l’affidabilità.
Lo strumento utilizza un approccio di “votazione di insieme”, che combina le previsioni di diversi modelli di apprendimento automatico per produrre un giudizio complessivo sulla affidabilità di una fonte di notizie. I test iniziali hanno dimostrato che il metodo ha superato le aspettative, identificando notizie false nel 99% dei casi.
Il dott. Ani, docente di Cyber Security a Keele, ha evidenziato le sfide poste dalla disinformazione. Ha notato che la diffusione diffusa di informazioni false mina il discorso pubblico e può influenzare atteggiamenti e comportamenti, rappresentando rischi sia per la sicurezza locale che nazionale.
I ricercatori sperano di perfezionare ulteriormente il modello con l’avanzare delle tecnologie di intelligenza artificiale e apprendimento automatico, puntando a una precisione ancora maggiore nell’identificazione di contenuti non affidabili. La Dr.ssa Ani ha sottolineato l’urgenza di sviluppare soluzioni per salvaguardare la credibilità delle piattaforme online, in particolare dei social media, dove la disinformazione è più diffusa.
Una ricerca preliminare di Democracy Reporting International (DRI), un’organizzazione con sede a Berlino che promuove la democrazia, ha avvertito che i sistemi di intelligenza artificiale, in particolare i Large Language Models (LLM) open source, presentano rischi significativi per la diffusione della disinformazione.
DRI afferma che questi rischi emergono perché questi modelli, come Dolly, Zephyr e Falcon, vengono spesso rilasciati senza robuste misure di sicurezza, lasciandoli vulnerabili all’abuso.
La loro accessibilità richiede competenze tecniche minime, permettendo a soggetti malintenzionati di manipolarli per creare false narrazioni o discorsi d’odio. Questo basso ostacolo all’ingresso esaspera il rischio di proliferazione di disinformazione.
Inoltre, DRI afferma che LLM open-source come Zephyr dimostrano capacità allarmanti, come la generazione di contenuti dannosi strutturati e persuasivi in risposta a richieste dirette o suggestive.
Tali output sono spesso coerenti e adeguati al contesto, rendendoli particolarmente pericolosi nella formazione di false narrazioni. Inoltre, i pregiudizi incorporati in questi modelli, che spesso riflettono pregiudizi sociali, aumentano ulteriormente il rischio di diffusione di stereotipi dannosi.
Sebbene sia ancora in fase di sviluppo, lo strumento sviluppato presso l’Università di Keele rappresenta un passo avanti verso il superamento della sfida più ampia della disinformazione nella comunicazione digitale.
Lascia un commento
Annulla