![Lo studio della BBC rivela che gli Assistenti IA faticano con l’accuratezza dei contenuti delle notizie](https://it.wizcase.com/wp-content/uploads/2025/02/roman-kraft-_Zua2hyvTBk-unsplash.webp)
Photo by Roman Kraft on Unsplash
Lo studio della BBC rivela che gli Assistenti IA faticano con l’accuratezza dei contenuti delle notizie
La BBC ha pubblicato un nuovo studio che rivela che gli assistenti AI disponibili al pubblico faticano a fornire risposte accurate alle domande degli esperti sulle notizie pubblicate sul suo sito web.
In fretta? Ecco i fatti essenziali!
- Giornalisti ed esperti della BBC hanno rivelato che il 51% delle risposte fornite dai popolari chatbot di intelligenza artificiale presentava problemi significativi.
- Lo studio mostra che il 13% delle citazioni fornite dai modelli di intelligenza artificiale erano alterate o inventate.
- Il 19% delle informazioni fornite dagli strumenti di intelligenza artificiale—dal contenuto delle notizie della BBC—era inesatto.
Secondo lo studio condiviso dalla BBC, i ricercatori hanno preso in considerazione popolari chatbot AI generativi come ChatGPT, Perplexity, Copilot e Gemini. Lo studio è stato condotto durante un mese – fornendo accesso al sito web della BBC – e ha dimostrato che il 51% delle risposte fornite dagli strumenti AI presentava problemi significativi.
Giornalisti ed esperti hanno considerato l’accuratezza, l’imparzialità e l’analisi di come le tecnologie di intelligenza artificiale rappresentavano i contenuti forniti. Altri risultati dello studio hanno mostrato che il 13% delle citazioni fornite dai modelli di intelligenza artificiale erano state alterate rispetto alla fonte originale o inventate, e che il 19% dei risultati riguardanti i contenuti della BBC presentavano errori fattuali o inesattezze—relative a numeri, date o dichiarazioni.
“Siamo entusiasti del futuro dell’AI e del valore che può portare al pubblico,” ha detto Pete Archer, Direttore del Programma per l’AI Generativa presso la BBC, in un annuncio pubblico. “Ma l’AI sta anche portando sfide significative per il pubblico. Le persone potrebbero pensare di poter fidarsi di ciò che leggono da questi assistenti di intelligenza artificiale, ma questa ricerca mostra che possono produrre risposte a domande su eventi di notizie chiave che sono distorte, factualmente incorrette o fuorvianti.”
Gli esperti hanno notato che le informazioni fornite da ChatGPT e Copilot non erano aggiornate. Ad esempio, hanno detto che entrambi i chatbot affermavano che Rishi Sunak e Nicola Sturgeon erano ancora in carica come Primo Ministro e Primo Ministro rispettivamente, dopo che entrambi avevano lasciato.
La BBC si è anche lamentata di altre tecnologie che fornivano informazioni inaccurate, come le notifiche di notizie riassunte dall’Intelligenza di Apple che fornivano dichiarazioni false. Il gigante tecnologico ha recentemente annunciato un nuovo aggiornamento alla funzione di sintesi delle notizie AI dopo che il giornale ha presentato un reclamo.
Lascia un commento
Annulla