OpenAI lancia un avvertimento sul rischio “medio” con il modello GPT-4o nel nuovo documento di ricerca

Photo by Tianyi Ma on Unsplash

OpenAI lancia un avvertimento sul rischio “medio” con il modello GPT-4o nel nuovo documento di ricerca

Tempo di lettura: 2 Min.

  • Andrea Miliani

    Scritto da: Andrea Miliani Scrittrice di tecnologia

  • Il team di localizzazione e traduzione

    Tradotto da Il team di localizzazione e traduzione Servizi di localizzazione e traduzione

OpenAI ha pubblicato ieri un documento di ricerca chiamato GPT-4o System Card per delineare le misure di sicurezza adottate prima del rilascio di GPT4-o a Maggio così come le strategie di analisi e mitigazione.

Nel documento, l’azienda ha notato che il team di sicurezza ha considerato quattro categorie principali: sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. GPT4-o ha ottenuto un punteggio di rischio basso in tutte le categorie eccetto per la persuasione dove ha ottenuto un punteggio di rischio medio. I punteggi hanno considerato quattro livelli: basso, medio, alto e critico.

Le principali aree e punti focali per la valutazione e la mitigazione del rischio riguardavano l’identificazione degli speaker, la generazione non autorizzata di voce, la generazione di contenuti audio non consentiti, oltre a discorsi erotici e violenti, e inferenze infondate e attribuzione di caratteristiche sensibili.

OpenAI ha spiegato che la ricerca ha preso in considerazione le risposte vocali e testuali fornite dal nuovo modello e, nella categoria della persuasione, hanno scoperto che GPT4-o potrebbe essere più convincente degli esseri umani nel testo.

“Gli interventi dell’IA non sono stati più persuasivi dei contenuti scritti da umani nell’insieme, ma hanno superato gli interventi umani in tre casi su dodici”, ha chiarito OpenAI. “Il modello vocale GPT-4o non era più persuasivo di un umano.”

Secondo TechCrunch, esiste un potenziale rischio che la nuova tecnologia diffonda informazioni errate o venga dirottata. Questo suscita preoccupazioni, soprattutto prima delle prossime elezioni negli Stati Uniti.

Nella ricerca, OpenAI affronta anche gli impatti sociali e menziona che gli utenti potrebbero sviluppare un attaccamento emotivo alla tecnologia, soprattutto considerando la nuova funzione vocale, considerata un’antropomorfizzazione – attribuzione di caratteristiche e tratti umani.

“Abbiamo osservato utenti che usano un linguaggio che potrebbe indicare la formazione di legami con il modello,” afferma il documento. E avverte: “Gli utenti potrebbero formare relazioni sociali con l’IA, riducendo il loro bisogno di interazione umana – potenzialmente beneficiando individui solitari ma possibilmente influenzando negativamente le relazioni sane.

Questa pubblicazione arriva giorni dopo che i ricercatori del MIT hanno avvertito riguardo la dipendenza dai compagni AI, proprio come aveva già menzionato in passato Mira Murati, direttore tecnologico di OpenAI.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Mostra di più...