
Image by Kelly Sikkema, from Unsplash
Le Allucinazioni dell’Intelligenza Artificiale Aumentano Man mano che gli Strumenti Diventano più Complessi
I nuovi sistemi di Intelligenza Artificiale di aziende come OpenAI sono più avanzati che mai, ma stanno diffondendo sempre più informazioni false – e nessuno sa perché.
Sei di fretta? Ecco i fatti essenziali:
- Nuovi modelli di ragionamento ipotizzano risposte, spesso inventando fatti senza spiegazione.
- OpenAI’s o4-mini ha allucinato risposte in quasi l’80% dei casi di test.
- Gli esperti ammettono di non comprendere ancora pienamente i processi decisionali dell’IA.
I sistemi di Intelligenza Artificiale stanno diventando sempre più potenti, ma stanno anche commettendo sempre più errori, e nessuno sa esattamente perché, come riportato per la prima volta da The New York Times.
Solo il mese scorso, Cursor, uno strumento di codifica, ha dovuto placare clienti arrabbiati dopo che il suo bot di supporto A.I. ha erroneamente comunicato loro che non potevano più utilizzare il prodotto su più dispositivi.
“Non abbiamo una politica del genere. Sei naturalmente libero di usare Cursor su più macchine,” ha chiarito il CEO Michael Truell su Reddit, incolpando il bot per il messaggio falso, come riportato dal The Times.
I sistemi avanzati di Intelligenza Artificiale di OpenAI, Google e DeepSeek in Cina stanno riscontrando un crescente numero di “allucinazioni”, che sono errori nelle loro operazioni. Questi strumenti usano le loro capacità di “ragionamento” per risolvere problemi, ma spesso producono supposizioni errate e informazioni inventate.
Il Times riporta che i risultati dei nuovi test di modello hanno rivelato che questi sistemi hanno generato risposte inventate nel 79% delle loro risposte.
“Nonostante i nostri migliori sforzi, continueranno sempre ad allucinare”, ha dichiarato Amr Awadallah, CEO di Vectara e ex dirigente di Google, come riportato da The Times. I bot operano senza regole prestabilite perché producono risposte basate sulla probabilità, il che porta alla creazione di informazioni false.
Questo è un grosso problema per gli utenti che gestiscono dati legali, medici o aziendali. “Non affrontare adeguatamente questi errori elimina sostanzialmente il valore dei sistemi di intelligenza artificiale”, ha detto Pratik Verma, CEO di Okahu.
In un esempio, gli errori generati dall’IA stanno causando problemi nel mondo reale, soprattutto in aree delicate come il lavoro legale. Gli avvocati hanno affrontato sanzioni per l’uso di informazioni fabbricate da modelli di IA nei documenti processuali.
Un rapporto ha rivelato che due avvocati del Wyoming hanno incluso casi falsi generati dall’IA in una causa contro Walmart, con il risultato che un giudice federale ha minacciato sanzioni. Questo ha scatenato avvertimenti nel campo legale riguardo i rischi di fare affidamento sull’IA per compiti che richiedono informazioni verificate.
Il modello o3 di OpenAI ha prodotto allucinazioni durante i test con un tasso del 33%, che è stato il doppio rispetto al modello o1. Il modello o4-mini ha mostrato il tasso di allucinazione più alto al 48%. “Stiamo lavorando attivamente per ridurre i tassi più elevati di allucinazione”, ha detto la portavoce di OpenAI, Gaby Raila, come riportato da The Times.
Questi problemi sono aggravati dalle preoccupazioni sull’impatto dell’IA sul giornalismo. Uno studio della BBC ha scoperto che i popolari AI chatbot faticano con l’accuratezza dei contenuti delle notizie, con il 51% delle risposte che contengono errori significativi, tra cui citazioni inventate e imprecisioni factuali.
Gli studiosi sostengono che parte del problema risiede nel modo in cui questi bot vengono addestrati. “Non sappiamo ancora esattamente come funzionano questi modelli”, ha detto Hannaneh Hajishirzi dell’Università di Washington, come riportato dal Times.
Lascia un commento
Annulla