Ricercatori Creano un Modello di IA per 50 dollari che Compete con OpenAI e DeepSeek
Un gruppo di ricercatori in intelligenza artificiale di Stanford e dell’Università di Washington ha addestrato un modello di ragionamento ad alte prestazioni per meno di $50 di costi di calcolo nel cloud, secondo un articolo di ricerca pubblicato lo scorso venerdì, come riportato per la prima volta da TechCrunch.
Di fretta? Ecco i Fatti Salienti!
- Ricercatori hanno addestrato un modello di ragionamento AI per meno di $50 in costi di cloud computing.
- Il modello, s1, si comporta altrettanto bene quanto l’o1 di OpenAI e il R1 di DeepSeek.
- s1 è open-source ed è disponibile su GitHub con i suoi dati di addestramento e il suo codice.
Il modello, chiamato s1, si comporta alla pari con AIs di ragionamento avanzato come OpenAI’s o1 e DeepSeek’s R1 nei test di matematica e codifica. È liberamente disponibile su GitHub, insieme ai dati di addestramento e al codice.
Per sviluppare s1, i ricercatori hanno iniziato con un modello di intelligenza artificiale preesistente e lo hanno perfezionato utilizzando un processo chiamato distillazione. Questo metodo estrae le competenze di ragionamento da un’intelligenza artificiale più avanzata, allenandosi sulle sue risposte.
Il team ha rivelato che s1 è stato distillato dal modello sperimentale di Google Gemini 2.0 Flash Thinking.
Il gruppo di ricercatori ha sviluppato un modello AI open-source che compete con l’o1-preview di OpenAI nella risoluzione di complessi problemi matematici e logici. Il loro segreto? Un semplice trucco che dà all’AI più tempo per pensare prima di rispondere.
Il metodo, chiamato “budget forcing”, funziona facendo compiere all’AI passaggi extra durante la risoluzione dei problemi invece di precipitarsi verso una risposta. Dandosi più tempo, l’AI può controllare due volte il suo lavoro e migliorare l’accuratezza.
Il team ha addestrato il loro modello, chiamato s1-32B, utilizzando solo 1.000 domande esemplificative attentamente selezionate con spiegazioni passo dopo passo.
Nonostante questo piccolo set di dati, il modello ha superato l’o1-preview di OpenAI in test matematici complessi, come MATH e AIME24, migliorando i risultati fino al 27%. È riuscito persino ad aumentare il proprio punteggio in un test dal 50% al 57% semplicemente riflettendo più a lungo prima di finalizzare le risposte – senza alcun ulteriore addestramento.
Questo è un grande passo avanti perché la maggior parte dei miglioramenti nell’IA si basano su enormi quantità di nuovi dati di addestramento. Invece, questa ricerca suggerisce che molti modelli di IA hanno già forti capacità di ragionamento nascoste al loro interno: hanno solo bisogno delle tecniche giuste per sbloccarle.
Lo studio ha anche testato diversi modi per prolungare il tempo di riflessione dell’IA. Un metodo prevedeva che l’IA affinasse le sue risposte passo dopo passo, mentre un altro le faceva generare diverse possibili risposte contemporaneamente e scegliere la migliore. Una combinazione di entrambi, utilizzando un processo decisionale ad albero, ha funzionato meglio.
Sebbene questa tecnica abbia dei limiti, come lo spazio di memoria dell’IA per i calcoli, i ricercatori credono che ulteriori modifiche potrebbero spingere ancora di più le sue capacità. Suggeriscono inoltre che l’apprendimento per rinforzo, un metodo in cui l’IA impara attraverso tentativi ed errori, potrebbe rendere il pensiero durante il test ancora più intelligente.
Rendendo disponibile liberamente il loro modello e le loro ricerche, il team spera di incoraggiare uno sviluppo dell’IA più aperto e trasparente, aiutando altri a costruire sistemi IA più intelligenti e affidabili.
Lascia un commento
Annulla