
Image generated with OpenAI
Opinione: I Modelli di Intelligenza Artificiale Sono Misteriose “Creature”, e Anche i Loro Creatori Non Li Comprendono Completamente
Lo studio recente di Anthropic su come funziona il suo modello Claude 3.5 Haiku promette rivelazioni rivoluzionarie e uno scintillio di comprensione su come funzionano le tecnologie AI avanzate. Ma cosa intendono quando dicono che gli LLMs sono “organismi viventi” che “pensano”?
Pochi giorni fa, Anthropic ha rilasciato due documenti con ricerche rivoluzionarie su come funzionano i Large Language Models (LLMs). Sebbene gli sviluppi tecnici fossero interessanti e pertinenti, ciò che ha attirato maggiormente la mia attenzione è stato il vocabolario utilizzato dagli esperti di intelligenza artificiale.
Nello studio Sulla Biologia di un Grande Modello Linguistico, i ricercatori si sono paragonati a biologi che studiano complessi “organismi viventi” che si sono evoluti attraverso miliardi di anni.
“Allo stesso modo, sebbene i modelli linguistici siano generati da semplici algoritmi di addestramento progettati dall’uomo, i meccanismi nati da questi algoritmi sembrano essere piuttosto complessi”, hanno scritto gli scienziati.
Negli ultimi anni, i modelli di Intelligenza Artificiale (AI) si sono significativamente evoluti. E abbiamo assistito alla sua rapida evoluzione negli ultimi mesi. Abbiamo visto ChatGPT passare da un modello solo testuale a un compagno di conversazione, fino a diventare ora un agente multidimensionale capace di generare anche sorprendenti immagini in stile Studio Ghibli.
Ma, e se i modelli di AI attuali stanno raggiungendo quel livello fantascientifico di sviluppare un ragionamento così avanzato che nemmeno i loro creatori riescono a capire i loro processi e sistemi? Ci sono molteplici misteri che circondano le tecnologie AI che potrebbero essere rilevanti da riesaminare, o da esplorare, nel 2025.
Il Spaventoso Paradosso della Scatola Nera dei Modelli di AI
Ci sono molte discussioni sull’adozione dell’IA e sulla conoscenza dell’IA, e su come coloro che capiscono come funzionano i modelli generativi di IA sono meno propensi a considerare i chatbot come i loro “amici” o app “magiche”. Tuttavia, c’è un altro dibattito – tra esperti e persone più familiari con la tecnologia – su se confrontare o considerare gli LLM come creazioni indipendenti. Riguardo quest’ultimo, c’è un ingrediente speciale, un mistero noto come “il paradosso della scatola nera dell’IA”, che svolge un ruolo cruciale nella discussione.
I sistemi di apprendimento profondo sono addestrati a riconoscere elementi e tendenze in modi simili a come fanno gli esseri umani. Proprio come inseguiamo ai bambini a riconoscere i pattern e ad assegnare parole specifiche a diversi oggetti, gli LLM sono stati addestrati a fare connessioni uniche e a costruire reti che diventano sempre più complesse man mano che “crescono”.
Samir Rawashdeh, professore associato di Ingegneria Elettrica e Informatica, è specializzato in intelligenza artificiale e spiega che, proprio come accade quando studiamo l’intelligenza umana, è quasi impossibile vedere effettivamente come i sistemi di deep learning prendono decisioni e giungono a conclusioni. Questo è ciò che gli esperti chiamano il “problema della black box”.
Le Modelle IA sfidano la Comprensione Umana
Un recente studio di Anthropic ha fatto luce sulla situazione della black box dell’IA spiegando come il suo modello “pensa” in certi scenari che erano precedentemente sfocati o addirittura completamente sbagliati. Anche se lo studio si basa sul modello Claude 3.5 Haiku, permette agli esperti di sviluppare strumenti e analizzare caratteristiche simili su altri modelli di IA.
“Comprendere la natura di questa intelligenza rappresenta una sfida scientifica profonda, che ha il potenziale di ridisegnare la nostra concezione di cosa significhi ‘pensare'”, afferma il documento condiviso dai ricercatori di Anthropic.
Tuttavia, il termine “pensare”, attribuito alle tecnologie di intelligenza artificiale, infastidisce certi esperti del settore ed è parte delle critiche all’indagine. Un utente di Reddit ha spiegato perché ciò irrita un gruppo di persone: “C’è un sacco di antropomorfizzazione in tutto l’articolo che offusca il lavoro. Ad esempio, continua ad usare la parola ‘pensare’ quando dovrebbe dire ‘calcolare’. Stiamo parlando di software per computer, non di un cervello biologico.”
Sebbene i termini “umanizzati” aiutino le persone non tecniche a comprendere meglio i modelli di IA e stimolino il dibattito nella comunità, la verità è che, che diciamo “calcolare” o “pensare”, la stessa sfida rimane: non abbiamo una piena comprensione o completa trasparenza su come operano gli LLM.
Cosa Aspettarsi dai Modelli di IA Avanzati nel Prossimo Futuro
Riesci a immaginare di ignorare l’esistenza di tecnologie IA avanzate come ChatGPT, DeepSeek, Perplexity o Claude – ora o nel prossimo futuro? Tutti i segnali indicano che non c’è ritorno. L’IA generativa e di ragionamento hanno già trasformato la nostra vita quotidiana, e continueranno solo ad evolvere.
Quasi ogni giorno su WizCase riportiamo un nuovo sviluppo nel settore: un nuovo modello di AI, un nuovo strumento di AI, una nuova azienda di AI – che ha il potenziale di avere un grande impatto nella nostra società. L’idea di prendersi una pausa per prima guadagnare una migliore comprensione di questi modelli avanzati e di come operano – o anche solo rallentare un po’ – sembra impossibile, dato il ritmo frenetico della corsa all’IA e il coinvolgimento dei governi e delle aziende più potenti del mondo.
“I modelli di IA esercitano una crescente influenza su come viviamo e lavoriamo, dobbiamo capirli abbastanza bene per garantire che il loro impatto sia positivo”, afferma il documento di Anthropic. Anche se può sembrare un po’ irrealistico, i ricercatori rimangono positivi: “Crediamo che i nostri risultati qui, e la traiettoria di progresso sulla quale sono costruiti, siano una prova entusiasmante che possiamo sorgere per affrontare questa sfida.”
Ma quanto velocemente possono realmente progredire queste scoperte? L’articolo sottolinea anche che i risultati riguardano solo alcune aree e casi specifici, e che non è possibile trarre conclusioni più generali. Quindi, probabilmente non abbastanza velocemente.
Mentre i regolatori introducono misure come il EU AI Act, per richiedere maggiore trasparenza, attirando accuse e lamentele da parte delle principali aziende tecnologiche per aver presumibilmente rallentato il progresso, i potenti modelli di AI continuano a evolversi.
Come società, dobbiamo sforzarci di trovare un equilibrio tra l’approfondimento della nostra comprensione di come funzionano queste tecnologie e l’adozione delle stesse in modi che portino benefici significativi e progresso alle nostre comunità. È possibile? L’idea di limitarsi a pregare o sperare che queste “creature” rimangano “etiche” e “buone” non sembra così improbabile al momento.
Lascia un commento
Annulla