Apple Sollecitata a Rimuovere la Funzione di IA Dopo la Polemica Sulla Falsa Intestazione
Un importante organismo di vigilanza del giornalismo ha esortato Apple a ritirare la sua funzionalità di intelligenza artificiale generativa, dopo che lo strumento ha falsamente attribuito un titolo su un caso di omicidio di alto profilo alle Notizie della BBC.
Di fretta? Ecco i Fatti Essenziali!
- Lo strumento di intelligenza artificiale di Apple ha attribuito erroneamente un titolo riguardante Luigi Mangione a BBC News.
- Reporters Without Borders chiede ad Apple di rimuovere la funzione di intelligenza artificiale.
- La BBC ha presentato un reclamo dopo l’emergere del falso titolo.
Giovedì, la BBC ha riportato che è sorta una controversia dopo che una nuova funzionalità di Apple, Apple Intelligence, ha generato in modo errato un titolo. Suggeriva che Luigi Mangione, un sospetto nell’omicidio del CEO dell’assicurazione sanitaria Brian Thompson, si fosse sparato. La BBC non aveva pubblicato un articolo del genere.
Reporters Senza Frontiere (RSF), un’organizzazione internazionale che difende la libertà di stampa, ha criticato Apple, sottolineando come l’incidente evidenzi i rischi che gli strumenti di intelligenza artificiale non ancora maturi possono rappresentare per la credibilità dei media e la fiducia del pubblico.
Vincent Berthier, capo del dipartimento di tecnologia e giornalismo di RSF, ha condannato l’errore, definendolo un “colpo alla credibilità dell’organo di informazione” e una minaccia all’accesso pubblico a informazioni affidabili. RSF ha richiesto ad Apple di rimuovere immediatamente la funzionalità.
“La Legge Europea sull’IA – nonostante sia la legislazione più avanzata al mondo in questo settore – non ha classificato le IA generatrici di informazioni come sistemi ad alto rischio, lasciando un vuoto legale critico. Questa lacuna deve essere colmata immediatamente”, ha detto Berthier.
La BBC ha confermato di aver presentato un reclamo formale al gigante tecnologico e di aver richiesto una risoluzione, ma rimane incerto se Apple abbia risposto.
Il riassunto difettoso dell’IA non era limitato alle notizie della BBC. Il 21 novembre, la funzione ha riassunto in modo inesatto un articolo del New York Times, suggerendo falsamente che il Primo Ministro israeliano Benjamin Netanyahu fosse stato arrestato, come riportato nell’articolo della BBC.
Questa notifica, successivamente evidenziata dal giornalista Ken Schwencke, si riferiva in realtà a un mandato della Corte Penale Internazionale contro Netanyahu.
Apple AI notification summaries continue to be so so so bad
— Ken Schwencke (@schwanksta.com) November 21, 2024 at 9:22 PM
Apple Intelligence, mira a ridurre le interruzioni delle notifiche riassumendole e raggruppandole. Disponibile su iPhone con iOS 18.1 e modelli più recenti, così come su alcuni iPad e Mac, lo strumento ha affrontato critiche per aver falsificato informazioni provenienti da autorevoli fonti di notizie.
Il portavoce della BBC ha sottolineato che, sebbene alcune notifiche raggruppate abbiano riassunto in modo accurato le storie su eventi globali, la disinformazione che coinvolgeva Mangione ha dimostrato il potenziale della tecnologia di danneggiare sia gli organi di informazione che la comprensione del pubblico.
RSF ha avvertito che “Questo incidente dimostra che i servizi di AI generativa sono ancora troppo immaturi per produrre informazioni affidabili per il pubblico e non dovrebbero essere consentiti sul mercato per tali utilizzi.”
Ars Technica ha esaminato i riassunti delle notifiche di Apple, notando diversi problemi che si presentano frequentemente. In primo luogo, sebbene alcuni riassunti siano factualmente corretti, suonano robotici e scomodi, in particolare in argomenti delicati come le relazioni o la salute mentale. Altri fraintendono il sarcasmo, lo slang o le espressioni idiomatiche, spesso interpretandole troppo letteralmente.
La perdita di contesto è un altro grave problema, in particolare quando i riassunti perdono i messaggi precedenti in una conversazione o non prendono in considerazione i contenuti multimediali. Nei gruppi di chat con più argomenti, i riassunti possono diventare sovraccarichi, mescolando gli argomenti e portando a inesattezze.
Infine, alcuni riassunti sono semplicemente sbagliati, spesso a causa di un tentativo di condensare troppe informazioni in troppe poche parole, il che risulta in resoconti distorti. Complessivamente, questi problemi, che colpiscono l’utilità e l’accuratezza della funzione, sono frequenti nell’uso quotidiano.
Mangione, ora accusato di omicidio di primo grado, è diventato un punto focale nel dibattito sui rischi associati all’IA nel giornalismo. La fiducia del pubblico nelle notizie credibili rimane a rischio mentre Apple affronta una crescente pressione per affrontare il problema.
Lascia un commento
Annulla