Opinione: L’epidemia dell’Allucinazione IA, una crisi per la quale non siamo pronti

Image generated with DALL·E through ChatGPT

Opinione: L’epidemia dell’Allucinazione IA, una crisi per la quale non siamo pronti

Tempo di lettura: 8 Min.

Nonostante le continue promesse di ridurre le allucinazioni dell’IA, i principali strumenti di IA – da ChatGPT a Perplexity a Gemini, e Apple Intelligence – continuano a generare informazioni false, spesso con conseguenze allarmanti. Gli esperti, compresi quelli che avvertono dei rischi dell’IA, sono caduti vittime di contenuti fabbricati, e persino strumenti avanzati come Deep Research stanno inventando report. La verità sembra rimanere nelle mani degli umani

I chatbot sono migliorati notevolmente nel corso degli anni – molto di più. Tuttavia, c’è un problema che non è stato ancora del tutto risolto ed è noto come “allucinazioni”.

I nostri amati chatbot forniscono risposte brillanti alle nostre domande con la determinazione e l’autorità di un Yoda della fantascienza, anche quando sbagliano terribilmente. E noi ci crediamo. A volte, ciecamente.

Numerosi scienziati, esperti e persino sviluppatori di chatbot hanno lanciato allarmi sulle allucinazioni per anni. Eppure, nonostante l’adozione si stia diffondendo rapidamente—OpenAI ha segnalato 400 milioni di utenti attivi settimanali solo pochi giorni fa—la conoscenza dell’IA non ha tenuto il passo.

Studi recenti, casi giudiziari ed eventi drammatici continuano a dimostrare che la disinformazione è ancora più pericolosa di quanto pensiamo.

È Peggio di Quanto Pensiamo

Inizialmente, individuare i grossi errori generati dall’IA era piuttosto divertente, come quelle imbarazzanti panoramiche dell’IA generate da Gemini che suggerivano agli utenti di aggiungere “colla non tossica alla salsa” per una ricetta di pizza o consigliavano di mangiare “un piccolo sasso al giorno” l’anno scorso. Ma, man mano che riacquistiamo fiducia nell’IA, la situazione è degenerata, diventando sempre più preoccupante.

A dicembre, abbiamo visto lo strumento di intelligenza artificiale di Apple creare titoli di notizie “riassumendo” le news e generando informazioni false e fuorvianti, come ad esempio l’affermazione errata che la BBC avesse annunciato che Luigi Mangione si era sparato. Dopo questo incidente, la pubblicazione ha presentato un reclamo contro Apple e ha iniziato a studiare l’accuratezza dell’IA generativa nell’analizzare i contenuti delle notizie.

Le scoperte della BBC, pubblicate solo pochi giorni fa, hanno rivelato statistiche allarmanti: il 51% delle risposte fornite dai popolari chatbot di intelligenza artificiale conteneva problemi significativi, il 13% delle citazioni fornite dai modelli erano completamente inventate, e il 19% dei dati era errato.

Gli adolescenti sono tra le popolazioni più colpite, poiché spesso faticano a distinguere le notizie false dalle notizie vere e possono essere facilmente influenzati dai contenuti generati da AI. Uno studio pubblicato a gennaio ha mostrato che il 35% degli adolescenti è stato fuorviato da contenuti falsi generati da modelli di AI, e il 22% ha condiviso le informazioni false.

Ma non sono solo gli adolescenti e le persone distratte a cadere vittime di queste allucinazioni. E non si tratta solo di Gemini o Apple Intelligence.

Nessun Modello di AI È Risparmiato, Nessuna Industria È Sicura

La ricerca condotta dalla BBC conferma un altro problema: tutti i modelli di IA allucinano. Gli esperti hanno considerato i modelli più popolari, ChatGPT, Gemini, Perplexity e Copilot. Nessun modello di IA è esente da errori. Anthropic ha una pagina che affronta questo problema, suggerendo idee su come ridurre le allucinazioni.

“Anche i modelli di linguaggio più avanzati, come Claude, possono a volte generare testi che sono factualmente incorretti o incoerenti con il contesto dato,” afferma il documento. Altre aziende di IA hanno condiviso pagine simili con consigli e trucchi per evitare contenuti falsi, ma non è così semplice ed è stato un problema irrisolto per molto tempo.

Nel 2023, OpenAI annunciò che stava lavorando a nuovi innovativi metodi per eliminare le allucinazioni. Alert spoiler: è ancora un grosso problema oggi.

Nel gennaio 2024 – più di un anno fa – il CEO Aravind Srinivas ha detto che le allucinazioni di Perplexity si verificavano principalmente nei conti non pagati. “La maggior parte dei reclami proviene dalla versione gratuita del prodotto”, ha spiegato Srinivas, aggiungendo che stavano già portando più GPU per risolvere il problema. Tuttavia, ad ottobre, il New York Post e Dow Jones hanno presentato una causa contro Perplexity – dato che il loro modello continuava ad attribuire notizie false alle loro pubblicazioni – e lo strumento AI sviluppato dalla startup per le elezioni americane è stato testato da esperti che hanno rivelato incongruenze, riassunti inaccurati e allucinazioni.

La Malattia delle Allucinazioni Sta Raggiungendo Livelli Scientifici e Accademici

Una delle maggiori preoccupazioni al momento è che persino gli esperti – compresi coloro che avvertono dei rischi e dei pericoli dell’IA – stiano cadendo preda di questi strumenti inclini all’allucinazione.

A dicembre, il professore di Stanford e esperto di tecnologia e disinformazione Jeff Hancock è stato accusato di aver utilizzato l’IA per redigere una dichiarazione giudiziaria. Hancock ha presentato una dichiarazione di 12 pagine a difesa della legge statale del 2023 che criminalizza l’uso dei deepfake, includendo 15 citazioni. Tuttavia, due di queste citazioni non sono state trovate da nessuna parte – perché ChatGPT, lo strumento IA preferito dall’esperto di disinformazione, le aveva semplicemente inventate.

Hancock, che quest’anno avrebbe dovuto insegnare “Verità, Fiducia e Tecnologia”, ha spiegato di aver utilizzato il chatbot di OpenAI per organizzare le sue citazioni, cosa che ha portato alle allucinazioni. Il ricercatore si è scusato—e ha sostenuto i punti chiave della sua dichiarazione—, insegnandoci a tutti la preziosa lezione che anche gli esperti e coloro che conoscono meglio i rischi dell’IA ne sono suscettibili.

Il professor Hancock non è stato l’unico a presentare documenti contenenti false informazioni generate dall’IA in tribunale, ovviamente. Un altro caso coinvolgente una causa contro Walmart è recentemente diventato virale perché gli avvocati hanno utilizzato casi falsi generati da IA per costruire la loro argomentazione. Infatti, il problema è diventato così frequente nei tribunali statunitensi che lo studio legale Morgan & Morgan ha recentemente inviato email a più di 1.000 avvocati, avvertendoli sui rischi dell’uso di citazioni generate da IA, e l’American Bar Association ha ricordato ai suoi 400.000 membri le regole etiche degli avvocati—including AI generated information.

Ricerca Approfondita Anche

Uno degli strumenti AI più popolari al momento è “Deep Research”, progettato per esperti e scienziati in cerca di risultati più complessi nelle loro ricerche. Anche le allucinazioni non sono assenti da questo strumento, nonostante la versione di OpenAI inizialmente richiedesse un abbonamento Pro di $200 per l’accesso.

Gli utenti su Reddit hanno sollevato preoccupazioni riguardo a questo problema, segnalando che tutti i modelli popolari che presentano strumenti di deep research—Perplexity, ChatGPT, e DeepSeek—hanno avuto allucinazioni. Ricercatori ed esperti di AI hanno anche condiviso risultati preoccupanti su altre piattaforme di social media come X.

“Lo strumento ha prodotto un rapporto magnificamente scritto e argomentato,” ha scritto un utente che ha utilizzato lo strumento Deep Research di OpenAI per studiare la matematica fatta dai giovani. “L’unico problema è che è tutto inventato.”

“Deep Research ha inventato un mucchio di statistiche e analisi, sostenendo di compilare un dataset di migliaia di articoli, e di raccogliere presumibilmente le informazioni sull’anno di nascita di ogni autore da fonti affidabili,” ha condiviso un altro. “Nulla di tutto ciò è vero.”

La Verità Rimane Nelle Mani Dell’Uomo

I chatbot smetteranno mai di allucinare? Il punto debole dell’IA è stato evidente per anni: lo abbiamo visto in podcast come Planet Money quando hanno testato episodi generati da IA nel 2023, e continuiamo a vederlo nei modelli più avanzati, anche quelli progettati per l’uso esclusivo da parte di comunità di esperti e appassionati di tecnologia.

Forse è il momento di accettare che questo rimarrà un problema e capire che dobbiamo assumerci la responsabilità per ciò che creiamo e condividiamo utilizzando strumenti di intelligenza artificiale.

Il fatto che, nonostante sembri un problema ben noto, gli stessi esperti di rischi dell’IA cadano nella trappola della scrittura persuasiva e convincente dell’IA è sicuramente preoccupante. La situazione diventa ancora più complessa con l’adozione che continua ad accelerare a piena velocità, superando la competenza digitale, mentre le incongruenze e le citazioni fabbricate si moltiplicano.

I casi in cui sono state esposte le allucinazioni dell’IA tendono ad essere quelli in cui il fact-checking è fondamentale – qualcosa di cui Zuckerberg dovrebbe essere ricordato ora che ha eliminato il suo dipartimento di fact-checking. Questo è particolarmente evidente nelle aule di tribunale, dove avvocati e giudici lavorano per verificare i fatti e i casi, e nei media di notizie, dove l’accuratezza e la validazione delle fonti sono importanti.

Ma che dire dei casi in cui nessuno sta esaminando questi dettagli? Cosa succede in contesti quotidiani, più personali? Al momento, milioni di studenti stanno memorizzando risposte generate dall’IA per i loro studi, gli utenti stanno seguendo le istruzioni fornite dall’IA per curare i malanni, e altri stanno imparando su nuovi argomenti, fidandosi completamente della tecnologia.

Le conseguenze di questa nuova realtà alla quale stiamo facendo fronte sono incommensurabili e imprevedibili, e la verità – per ora – è nelle mani di coloro che si prendono il tempo per interrogarsi e verificare.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...