OpenAI lancia il nuovo modello avanzato GPT-4o: presto disponibile per tutti
OpenAI ha svelato un nuovo modello di ChatGPT ancora più evoluto, chiamato GPT-4o, durante l’evento in diretta OpenAI Spring Update di lunedì 13 maggio. Il nuovo GPT-4o è più veloce rispetto al GPT-4 e può elaborare simultaneamente testo, audio e immagini – in pratica può “vedere” attraverso la fotocamera di un dispositivo.
Durante la diretta streaming, durata 26 minuti, il team di OpenAI ha illustrato in tempo reale le nuove funzionalità e capacità del nuovo modello. Hanno inoltre condiviso dettagli sugli aggiornamenti in arrivo per le versioni precedenti, come la nuova app per desktop.
“La grande novità di oggi è il lancio del nostro nuovo modello di punta, chiamato ChatGPT-4o”, ha dichiarato Mira Murati, Chief Technology Officer di OpenAI.
Murati ha sottolineato come il nuovo modello e le nuove funzionalità per le versioni precedenti saranno presto disponibili, gratuitamente e per chiunque, anche per gli utenti non registrati. “Le distribuiremo nelle prossime settimane”, ha spiegato Murati.
Durante la prima dimostrazione, il team di OpenAI ha evidenziato come GPT-4o sia in grado di intrattenere conversazioni utilizzando una voce femminile, di essere interrotto, di rispondere in modo rapido e creativo – con senso dell’umorismo – e persino di riconoscere le emozioni e fornire consigli.
Il team ha presentato in seguito diversi scenari in cui GPT-4o potrà essere utilizzato. Hanno mostrato come può utilizzare la funzionalità “vision” per aiutare a risolvere equazioni lineari scritte su carta, comprendere codice e grafica condividendo le schermate attraverso la versione desktop e aiutare con traduzioni simultanee in conversazioni reali. GPT-4o è in grado di parlare in più lingue e con diversi toni e stili di voce.
Gli esperti hanno infine evidenziato come sia in grado di riconoscere le emozioni umane e anche di commettere errori. Nel corso delle esercitazioni, GPT-4o è incappato in alcuni errori, confondendo uno dei presentatori con un’immagine in legno e credendo di aver già risolto il problema matematico, quando il membro del team non aveva ancora mostrato nulla.
Ma GPT-4o si è subito scusato, affascinando il pubblico con le sue risposte. “Smettila, mi fai arrossire!”, ha risposto quando uno dei responsabili della ricerca, Barret Zoph, ha ribadito a GPT-4o la sua ammirazione.
Risposta a GPT-4o
OpenAI ha condiviso diversi video di breve durata su X per dimostrare le diverse funzioni del nuovo modello GPT-4o.
Molte persone su X l’hanno associata al film Her, dove il protagonista Theodore Twombly, interpretato da Joaquin Phoenix, si innamora di un’assistente virtuale di intelligenza artificiale doppiata da Scarlett Johanson. “È pazzesco, quando ho visto questi spezzoni mi è venuto subito in mente questo film!”, ha commentato un utente. “Questa è letteralmente Scarlett Johansson. Come è possibile?”, ha scritto un altro.
Mentre la maggior parte degli utenti è rimasta impressionata dalle nuove funzionalità, altri hanno espresso alcune critiche e preoccupazioni. “Caro @openai, la tua demo è stata davvero impressionante, ma l’accento italiano era terribile :)” ha postato Massimo Banzi, cofondatore del progetto di automazione robotica Arduino.
“Davvero eccellente, ma potreste perdere molti utenti a pagamento se il limite massimo è l’unica a differenza rispetto alla versione gratuita”, ha dichiarato un altro utente.
Nei prossimi giorni, il nuovo modello e gli aggiornamenti saranno disponibili per un maggior numero di persone, affinché possano testare e sperimentare la tecnologia in prima persona.
Lascia un commento
Annulla