Potrebbero Entrare nelle Forze Lavorative Quest’Anno i Dipendenti Virtuali, Prevede il CEO di OpenAI
Agenti di intelligenza artificiale, in grado di svolgere autonomamente compiti, potrebbero unirsi alle forze lavoro già da quest’anno, trasformando le operazioni aziendali, secondo il CEO di OpenAI, Sam Altman.
Hai fretta? Ecco i Fatti Essenziali!
- L’agente di intelligenza artificiale “Operator” di OpenAI automatizzerà compiti come la scrittura di codice e la prenotazione dei viaggi.
- McKinsey prevede che il 30% delle ore lavorative negli Stati Uniti potrebbe essere automatizzato entro il 2030.
- Altman esprime fiducia nella costruzione dell’intelligenza artificiale generale (AGI) e della superintelligenza.
In un post sul blog pubblicato lunedì, Altman ha affermato che gli impiegati virtuali alimentati da AI potrebbero rivoluzionare la produttività aziendale, assumendosi compiti tradizionalmente gestiti dagli esseri umani. The Guardian evidenzia che Microsoft, il più grande sostenitore di OpenAI, ha già introdotto agenti AI, con il gigante della consulenza McKinsey tra i primi ad adottare la tecnologia.
“Crediamo che, nel 2025, potremmo vedere i primi agenti di intelligenza artificiale “unirsi alla forza lavoro” e modificare sostanzialmente il rendimento delle aziende. Continuiamo a credere che mettere strumenti eccellenti nelle mani delle persone porta a risultati eccellenti e ampiamente distribuiti”, ha scritto Altman nel post del blog.
Si dice che OpenAI stia per lanciare un agente di intelligenza artificiale, con il nome in codice “Operator,” più avanti in questo mese. Si prevede che lo strumento automatizzi compiti come la scrittura di codice o la prenotazione di viaggi per conto degli utenti. Questa mossa segue il rilascio del Copilot Studio di Microsoft, Claude 3.5 Sonnet di Anthropic, gli agenti di intelligenza artificiale di Meta con corpi simili a quelli fisici, e le nuove funzionalità di intelligenza artificiale in Slack di Salesforce.
McKinsey sta già sviluppando un agente per semplificare le richieste dei clienti, inclusa la programmazione dei follow-up. La società prevede che entro il 2030, fino al 30% delle ore lavorative nell’economia degli Stati Uniti potrebbe essere automatizzata, come riportato da The Guardian.
Anche Mustafa Suleyman, capo dell’IA di Microsoft, ha espresso ottimismo riguardo a agenti in grado di prendere decisioni di acquisto. In un’intervista con WIRED ha descritto di aver assistito a “dimostrazioni sbalorditive” di IA che completano transazioni in modo indipendente, ma ha riconosciuto le sfide nello sviluppo. Suleyman ha previsto che queste capacità avanzate potrebbero emergere “in trimestri, non anni”.
Il blog di Altman ha anche toccato la fiducia di OpenAI nella creazione dell’intelligenza artificiale generale (AGI) – sistemi di intelligenza artificiale che superano l’intelligenza umana. “Ora siamo sicuri di sapere come costruire l’AGI come l’abbiamo tradizionalmente compresa”, ha scritto.
Guardando oltre l’AGI, Altman ha delineato le ambizioni di OpenAI per la “superintelligenza”, che ha descritto come strumenti che potrebbero accelerare significativamente la scoperta scientifica e l’innovazione.
“Gli strumenti super intelligenti potrebbero accelerare massicciamente la scoperta scientifica e l’innovazione ben oltre quello che siamo capaci di fare da soli, e a sua volta aumentare massicciamente l’abbondanza e la prosperità”, ha scritto Altman, esprimendo entusiasmo per un futuro in cui tali progressi rimodellano il potenziale umano.
La rapida crescita dell’IA nel mondo del lavoro ha ampie implicazioni per la produttività aziendale e l’economia. Tuttavia, man mano che gli agenti IA evolvono, emergono nuovi rischi per la sicurezza.
Un recente sondaggio, pubblicato da Medium, ha messo in luce vulnerabilità quali input utente multi-step imprevedibili, complessità di esecuzione interne, variabilità negli ambienti operativi e interazioni con entità esterne non affidabili.
Input utente non chiari o incompleti possono innescare azioni non intenzionali, mentre i processi interni degli agenti AI spesso mancano di osservabilità in tempo reale, rendendo difficile rilevare le minacce alla sicurezza. Inoltre, gli agenti che operano in ambienti diversi possono mostrare comportamenti incoerenti, e fidarsi di entità esterne senza un’adeguata verifica può esporre gli agenti ad attacchi.
Queste sfide evidenziano la necessità di solidi quadri di sicurezza per proteggere gli agenti AI e garantire il loro sicuro dispiegamento in scenari reali.
Lascia un commento
Annulla