IA Affronta Crisi dei Dati: Musk Avverte del Rischio di Esaurimento della Conoscenza Umana

IA Affronta Crisi dei Dati: Musk Avverte del Rischio di Esaurimento della Conoscenza Umana

Tempo di lettura: 4 Min.

Le aziende di intelligenza artificiale hanno esaurito le conoscenze umane disponibili per addestrare i loro modelli, ha rivelato Elon Musk durante un’intervista trasmessa in diretta, come riportato da The Guardian.

Di fretta? Ecco i Fatti Essenziali!

  • Elon Musk afferma che le aziende di IA hanno esaurito le conoscenze umane per l’addestramento dei modelli.
  • Musk suggerisce che i “dati sintetici” sono essenziali per avanzare i sistemi di IA.
  • Le allucinazioni dell’IA complicano l’uso di dati sintetici, rischiando errori nei contenuti generati.

Il miliardario ha suggerito che le aziende devono fare sempre più affidamento sui dati “sintetici” – contenuti generati dalla stessa IA – per sviluppare nuovi sistemi, un metodo che sta già guadagnando terreno. “La somma cumulativa della conoscenza umana è stata esaurita nella formazione dell’IA. Questo è accaduto essenzialmente l’anno scorso”, ha detto Musk, come riportato da The Guardian.

Questo è destinato a rappresentare una sfida significativa per modelli di Intelligenza Artificiale come GPT-4, che si basano su enormi dataset provenienti da internet per identificare schemi e prevedere output di testo.

Musk, che ha fondato xAI nel 2023, ha evidenziato i dati sintetici come la soluzione principale per far avanzare l’Intelligenza Artificiale. Tuttavia, ha messo in guardia sui rischi associati a questa pratica, in particolare le “allucinazioni” dell’IA, dove i modelli generano informazioni inaccurate o prive di senso, come riportato da The Guardian.

The Guardian segnala che le principali aziende tecnologiche, tra cui Meta e Microsoft, hanno adottato i dati sintetici per i loro modelli di intelligenza artificiale, come Llama e Phi-4. Anche Google e OpenAI hanno incorporato questo approccio.

Ad esempio, Gartner stima che il 60% dei dati utilizzati per i progetti di intelligenza artificiale e analisi nel 2024 sia stato generato in modo sintetico, come riportato da TechCrunch.

Inoltre, la formazione su dati sintetici offre significativi risparmi sui costi. TechCrunch segnala che la startup di intelligenza artificiale Writer sostiene che il suo modello Palmyra X 004, sviluppato utilizzando quasi interamente fonti sintetiche, è costato solo $700.000 da creare.

In confronto, le stime suggeriscono che un modello di dimensioni simili di OpenAI costerebbe circa $4,6 milioni da sviluppare, ha detto TechCrunch. Tuttavia, sebbene i dati sintetici consentano un continuo affinamento del modello, gli esperti mettono in guardia da possibili inconvenienti.

Il Guardian ha riportato che Andrew Duncan, direttore dell’AI fondamentale presso l’Alan Turing Institute, ha notato che la dipendenza dai dati sintetici rischia il “crollo del modello”, in cui le uscite perdono qualità nel tempo.

“Quando inizi a nutrire un modello con materiale sintetico, inizi a ottenere rendimenti decrescenti”, ha detto Duncan, aggiungendo che potrebbero sorgere anche pregiudizi e una ridotta creatività.

La crescente diffusione di contenuti generati da IA online pone un altro problema. Duncan ha avvertito che tali materiali potrebbero entrare involontariamente nei set di dati di addestramento, aggravando ulteriormente le sfide, come riportato da The Guardian.

Duncan ha menzionato uno studio pubblicato nel 2022 che prevedeva che i dati di testo di alta qualità per l’addestramento dell’IA potrebbero esaurirsi entro il 2026 se le tendenze attuali persistono. I ricercatori hanno anche proiettato che i dati linguistici di bassa qualità potrebbero esaurirsi tra il 2030 e il 2050, mentre i dati di immagini di bassa qualità potrebbero esaurirsi tra il 2030 e il 2060.

Inoltre, uno studio più recente pubblicato a luglio mette in guardia sul rischio che i modelli di IA subiscano una degradazione, man mano che i dati generati dall’IA saturano sempre più internet. I ricercatori hanno scoperto che i modelli addestrati su output generati dall’IA producono nel tempo risultati senza senso, un fenomeno definito “crollo del modello”.

Questa degradazione potrebbe rallentare i progressi dell’IA, sottolineando la necessità di fonti di dati di alta qualità, varie e generate dall’uomo.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...