OpenAI lancia la funzione vocale per ChatGPT Plus
Open AI ha rilasciato la sua funzione vocale per ChatGPT Plus a un piccolo numero di abbonati ieri. Proprio come promesso durante l’evento live di aggiornamento primaverile di OpenAI a maggio, gli utenti avranno finalmente l’opportunità di provare la versione conversazionale udibile dell’assistente AI.
“Stiamo iniziando a implementare l’Advanced Voice Mode a un piccolo gruppo di utenti ChatGPT Plus,” ha scritto OpenAI su X, “L’Advanced Voice Mode offre conversazioni più naturali e in tempo reale, ti permette di interrompere in qualsiasi momento, e percepisce e risponde alle tue emozioni.”
Stiamo iniziando a distribuire la modalità Vocale avanzata ad un piccolo gruppo di utenti di ChatGPT Plus. La modalità Vocale avanzata offre conversazioni più naturali e in tempo reale, ti permette di interrompere in qualsiasi momento e rileva e risponde alle tue emozioni. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) 30 luglio 2024
La compagnia ha aggiunto che gli utenti che avranno la possibilità di testare la versione alpha riceveranno un’email con le istruzioni per imparare come utilizzare la modalità Vocale.
Secondo Forbes, OpenAI ha ritardato il suo lancio—inizialmente previsto per giugno—a causa di preoccupazioni per la sicurezza e aggiustamenti, poiché l’azienda ha affermato di aver bisogno di più tempo per raggiungere lo “standard di lancio”. OpenAI ha fatto un passo indietro dopo che l’attrice Scarlett Johansson ha richiesto più informazioni sulla voce dell’assistente AI chiamata “Sky”, in quanto era “inquietantemente simile” alla sua.
La voce Sky—utilizzata durante la dimostrazione all’evento dal vivo—non è disponibile nella nuova versione, e OpenAI non ha rivelato ulteriori informazioni sulla fonte della voce.
Secondo la MIT Technology Review, il nuovo modello vocale alimentato da GPT4-o sarà in grado di sostenere conversazioni più naturali rispetto a Siri e Alexa, e sarà capace di riconoscere le emozioni, rispondere alle interruzioni e combinare e integrare capacità testuali e visive.
OpenAI si aspetta di ricevere più feedback durante questo periodo prima di rilasciare il chatbot vocale ad un pubblico più ampio più avanti quest’anno, durante l’autunno. L’azienda ha dichiarato di aver testato il modello con oltre 100 membri di un team di tester esterni, in 45 lingue e in 29 paesi.
Una delle misure di sicurezza prese in considerazione prima del lancio della funzione vocale riguardava le deepfake audio. Il nuovo modello vocale non sarà autorizzato a creare deepfake vocali e utilizzerà solo quattro voci scelte in collaborazione con attori.
OpenAI prevede di rilasciare presto altre funzionalità, come la condivisione video e dello schermo, per il suo modello di assistente AI. Solo pochi giorni fa, l’azienda tecnologica ha lanciato un nuovo motore di ricerca alimentato da AI chiamato SearchGPT che si prevede possa competere con Google.
Lascia un commento
Annulla