OpenAI Darà All’Istituto di Sicurezza degli Stati Uniti Accesso Anticipato ai Nuovi Modelli

Photo by Levart_Photographer on Unsplash

OpenAI Darà All’Istituto di Sicurezza degli Stati Uniti Accesso Anticipato ai Nuovi Modelli

Tempo di lettura: 2 Min.

  • Andrea Miliani

    Scritto da: Andrea Miliani Scrittrice di tecnologia

  • Il team di localizzazione e traduzione

    Tradotto da Il team di localizzazione e traduzione Servizi di localizzazione e traduzione

Sam Altman, CEO di OpenAI, ha annunciato oggi su X che l’azienda fornirà un accesso anticipato all’Istituto di Sicurezza dell’Intelligenza Artificiale degli Stati Uniti per il prossimo modello fondamentale.

“Come abbiamo detto lo scorso luglio, ci impegniamo a destinare almeno il 20% delle risorse di calcolo agli sforzi di sicurezza in tutta l’azienda”, ha scritto Altman, “Il nostro team ha lavorato con l’Istituto di Sicurezza AI degli Stati Uniti su un accordo in cui forniremmo un accesso anticipato al nostro prossimo modello fondamentale, in modo da poter lavorare insieme per far avanzare la scienza delle valutazioni dell’IA.”

Altman ha detto di aver condiviso questa decisione con entusiasmo e ha aggiunto che vogliono che gli attuali e gli ex dipendenti esprimano le loro preoccupazioni riguardo alle tecnologie di intelligenza artificiale che l’azienda sta sviluppando. Ha sottolineato che era importante per l’azienda e per il suo piano di sicurezza.

Secondo TechCrunch, l’Istituto di Sicurezza dell’Intelligenza Artificiale degli Stati Uniti—parte dell’Istituto Nazionale di Standard e Tecnologia (NIST)—si occupa di affrontare e valutare i rischi nelle piattaforme di intelligenza artificiale e OpenAI ha già lavorato su un accordo simile con il Regno Unito solo poche settimane fa.

L’annuncio di Altman arriva dopo che persone e organizzazioni hanno criticato le misure di sicurezza dell’azienda. A giugno, numerosi attuali ed ex dipendenti di OpenAI hanno firmato una lettera aperta per esprimere preoccupazioni e mettere in guardia sulla diffusione di informazioni errate attraverso l’IA e sul rischio che questa può rappresentare per la società. Diversi lavoratori hanno anche lasciato l’azienda a causa di preoccupazioni sulla sicurezza, inclusa una figura chiave di OpenAI, il ricercatore Jan Leike, dopo che OpenAI ha sciolto il team Superalignment, incaricato di affrontare i rischi dell’IA.

Nonostante le preoccupazioni sulla sicurezza, OpenAI continua a muoversi in avanti. L’azienda ha appena lanciato la funzione vocale per ChatGPT Plus, e un nuovo motore di ricerca alimentato da IA chiamato SearchGPT è disponibile per utenti selezionati.

I nuovi sforzi per aggiungere misure di sicurezza sembrano dimostrare che Altman e il suo team non hanno dimenticato i rischi e le preoccupazioni legate all’IA.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Mostra di più...