
Image by Freepik
L’Intelligenza Artificiale da Mente-a-Discorso Traduce le Onde Cerebrali in Parole
Gli scienziati hanno compiuto un importante passo avanti nel ripristinare il discorso naturale per le persone con paralisi, utilizzando impianti cerebrali alimentati da intelligenza artificiale per trasformare le onde cerebrali in parole pronunciate in tempo reale.
Sei di fretta? Ecco i fatti principali:
- Il sistema decifra le onde cerebrali e le converte in un discorso quasi istantaneo e naturale.
- Il sistema utilizza la voce pre-infortunio del paziente per creare una sintesi vocale personalizzata che consente una comunicazione autentica.
- Il modello AI decodifica i segnali vocali in 80 millisecondi, riducendo significativamente i ritardi precedenti.
Gli scienziati dell’Università di Radboud, insieme all’UMC Utrecht, hanno sviluppato una tecnologia di impianto cerebrale con AI che traduce i segnali neurali in parole pronunciate con un tasso di precisione tra il 92-100%, come riportato da Neuroscience News. La ricerca pubblicata questa settimana su Nature Neuroscience mira a sviluppare strumenti di comunicazione per persone paralizzate.
La ricerca ha utilizzato pazienti con epilessia dotati di impianti cerebrali a breve termine per creare associazioni tra segnali neurali ed espressioni verbali. Questo sviluppo riduce il precedente ritardo che rendeva difficile la comunicazione per le persone con problemi di linguaggio.
“Il nostro approccio in streaming offre la stessa capacità di decodificazione rapida del linguaggio di dispositivi come Alexa e Siri alle neuroprotesi,” ha spiegato Gopala Anumanchipalli, uno dei principali investigatori dello studio, come riportato da New Atlas. “Utilizzando un tipo di algoritmo simile, abbiamo scoperto che possiamo decodificare i dati neurali e, per la prima volta, consentire lo streaming vocale quasi sincrono,” ha aggiunto.
Il sistema funziona catturando l’attività cerebrale attraverso elettrodi ad alta densità posizionati sulla superficie del cervello. L’IA decifra poi questi segnali, ricostruendo parole e frasi con una precisione notevole.
Inoltre, un modello di testo-parlato addestrato sulla voce del paziente prima dell’infortunio garantisce che il discorso generato suoni naturale e rispecchi da vicino la loro voce originale.
Uno degli autori dello studio, Cheol Jun Cho, ha spiegato come il sistema trasforma i pensieri in parole: “Quello che stiamo decodificando avviene dopo che un pensiero si è formato, dopo che abbiamo deciso cosa dire, dopo che abbiamo scelto quali parole utilizzare e come muovere i muscoli del nostro tratto vocale”, come riportato su New Atlas.
Il progresso migliora significativamente le tecnologie passate. Inoltre, questo sistema alimentato da intelligenza artificiale fornisce ora un’iniziazione del discorso di un secondo che consente conversazioni fluide e ininterrotte. Questa tecnologia potrebbe cambiare la vita delle persone con paralisi grave, sindrome del locked-in, o condizioni come l’ALS, consentendo loro di comunicare naturalmente con gli altri.
Tuttavia, nonostante questi progressi, la tecnologia deve ancora affrontare delle sfide. Come spiegato in Neuroscience News, questo AI richiede un intenso addestramento sui dati neurali di una persona, e potrebbe non funzionare in modo efficace per coloro che non dispongono di registrazioni vocali precedenti.
Mentre il sistema può decodificare le parole, ottenere un ritmo e un’espressione completamente naturali rimane difficile. Inoltre, i modelli attuali faticano a prevedere intere frasi e paragrafi, concentrandosi principalmente su singole parole.
Inoltre, le versioni non invasive che utilizzano caschi EEG hanno una precisione inferiore, circa il 60%, rispetto agli elettrodi impiantati, come riportato in New Scientist.
Andando avanti, i ricercatori puntano a migliorare la velocità di parola del sistema e la sua espressività, rendendo le conversazioni ancora più simili alla realtà.
Lascia un commento
Annulla