Lo studio della BBC rivela che gli Assistenti IA faticano con l’accuratezza dei contenuti delle notizie

Photo by Roman Kraft on Unsplash

Lo studio della BBC rivela che gli Assistenti IA faticano con l’accuratezza dei contenuti delle notizie

Tempo di lettura: 2 Min.

La BBC ha pubblicato un nuovo studio che rivela che gli assistenti AI disponibili al pubblico faticano a fornire risposte accurate alle domande degli esperti sulle notizie pubblicate sul suo sito web.

In fretta? Ecco i fatti essenziali!

  • Giornalisti ed esperti della BBC hanno rivelato che il 51% delle risposte fornite dai popolari chatbot di intelligenza artificiale presentava problemi significativi.
  • Lo studio mostra che il 13% delle citazioni fornite dai modelli di intelligenza artificiale erano alterate o inventate.
  • Il 19% delle informazioni fornite dagli strumenti di intelligenza artificiale—dal contenuto delle notizie della BBC—era inesatto.

Secondo lo studio condiviso dalla BBC, i ricercatori hanno preso in considerazione popolari chatbot AI generativi come ChatGPT, Perplexity, Copilot e Gemini. Lo studio è stato condotto durante un mese – fornendo accesso al sito web della BBC – e ha dimostrato che il 51% delle risposte fornite dagli strumenti AI presentava problemi significativi.

Giornalisti ed esperti hanno considerato l’accuratezza, l’imparzialità e l’analisi di come le tecnologie di intelligenza artificiale rappresentavano i contenuti forniti. Altri risultati dello studio hanno mostrato che il 13% delle citazioni fornite dai modelli di intelligenza artificiale erano state alterate rispetto alla fonte originale o inventate, e che il 19% dei risultati riguardanti i contenuti della BBC presentavano errori fattuali o inesattezze—relative a numeri, date o dichiarazioni.

“Siamo entusiasti del futuro dell’AI e del valore che può portare al pubblico,” ha detto Pete Archer, Direttore del Programma per l’AI Generativa presso la BBC, in un annuncio pubblico. “Ma l’AI sta anche portando sfide significative per il pubblico. Le persone potrebbero pensare di poter fidarsi di ciò che leggono da questi assistenti di intelligenza artificiale, ma questa ricerca mostra che possono produrre risposte a domande su eventi di notizie chiave che sono distorte, factualmente incorrette o fuorvianti.”

Gli esperti hanno notato che le informazioni fornite da ChatGPT e Copilot non erano aggiornate. Ad esempio, hanno detto che entrambi i chatbot affermavano che Rishi Sunak e Nicola Sturgeon erano ancora in carica come Primo Ministro e Primo Ministro rispettivamente, dopo che entrambi avevano lasciato.

La BBC si è anche lamentata di altre tecnologie che fornivano informazioni inaccurate, come le notifiche di notizie riassunte dall’Intelligenza di Apple che fornivano dichiarazioni false. Il gigante tecnologico ha recentemente annunciato un nuovo aggiornamento alla funzione di sintesi delle notizie AI dopo che il giornale ha presentato un reclamo.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...