Lo Studio Non Trova Prove di Pericolose Abilità Emergenti nei Grandi Modelli Linguistici

Image by rawpixel.com, from Freepik

Lo Studio Non Trova Prove di Pericolose Abilità Emergenti nei Grandi Modelli Linguistici

Tempo di lettura: 3 Min.

  • Kiara Fabbri

    Scritto da: Kiara Fabbri Giornalista multimediale

  • Il team di localizzazione e traduzione

    Tradotto da Il team di localizzazione e traduzione Servizi di localizzazione e traduzione

Uno studio annunciato ieri dall’Università di Bath sostiene che i grandi modelli di linguaggio (LLM) non rappresentano una minaccia esistenziale per l’umanità. La ricerca afferma che questi modelli non possono apprendere o acquisire nuove abilità in modo indipendente, il che li rende controllabili e sicuri.

Il team di ricerca, guidato dalla Professoressa Iryna Gurevych, ha condotto oltre 1.000 esperimenti per testare la capacità dei LLM di sviluppare abilità emergenti – compiti e conoscenze non esplicitamente programmate in essi. I loro risultati dimostrano che ciò che viene percepito come abilità emergenti risulta effettivamente dall’uso dei LLM dell’apprendimento in contesto, piuttosto che da qualsiasi forma di apprendimento o ragionamento indipendente.

Lo studio indica che, sebbene i LLM siano proficienti nell’elaborazione del linguaggio e nel seguire le istruzioni, essi mancano della capacità di padroneggiare nuove competenze senza una guida esplicita. Questa limitazione fondamentale significa che questi modelli rimangono controllabili, prevedibili e intrinsecamente sicuri. Nonostante la loro crescente sofisticazione, i ricercatori sostengono che è improbabile che i LLM sviluppino abilità di ragionamento complesso o intraprendano azioni inaspettate.

Dr. Harish Tayyar Madabushi, coautore dello studio, ha dichiarato nell’annuncio dell’Università di Bath: “La narrazione prevalente che questo tipo di AI rappresenta una minaccia per l’umanità impedisce l’adozione e lo sviluppo diffuso di queste tecnologie, e distoglie l’attenzione dai veri problemi che richiedono la nostra attenzione”

La Dr.ssa Tayyar Madabushi raccomanda di concentrarsi sui rischi reali, come l’uso potenziale degli LLM per generare fake news o commettere frodi. Mette in guardia dall’emanare regolamenti basati su minacce speculative e invita gli utenti a specificare chiaramente i compiti per gli LLM e a fornire esempi dettagliati per garantire risultati efficaci.

Il professor Gurevych ha sottolineato nell’annuncio: “I nostri risultati non significano che l’IA non rappresenti una minaccia. Piuttosto, dimostriamo che l’emergenza presunta di competenze di pensiero complesso associate a minacce specifiche non è supportata da prove e che possiamo controllare molto bene il processo di apprendimento degli LLM. La ricerca futura dovrebbe quindi concentrarsi su altri rischi posti dai modelli, come la loro potenziale utilità nella generazione di fake news.”

Le ricercatrici riconoscono diverse limitazioni nel loro studio. Hanno testato vari modelli, tra cui T5, GPT, Falcon e LLaMA, ma non sono riuscite a corrispondere esattamente al numero di parametri a causa delle differenze nelle dimensioni dei modelli al momento del rilascio. Hanno anche considerato il rischio di perdita di dati, dove le informazioni provenienti dai dati di addestramento potrebbero influenzare inavvertitamente i risultati. Sebbene presuppongano che questo problema non sia andato oltre quanto riportato per modelli specifici, la perdita di dati potrebbe comunque influenzare le prestazioni.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!
5.00 Votato da 1 utenti
Titolo
Commento
Grazie per la tua opinione!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Mostra di più...