OpenAI ritarda il sistema di watermarking di ChatGPT a causa di disaccordi interni
Secondo il Wall Street Journal, OpenAI sta dibattendo se rilasciare un sistema di watermarking progettato per rilevare il testo generato dalla sua IA ChatGPT. Nonostante questa tecnologia sia pronta da circa un anno, i disaccordi interni hanno ritardato il suo lancio.
Nel loro post recentemente aggiornato, OpenAI afferma che il loro metodo di watermarking del testo è preciso contro le manipolazioni localizzate. Tuttavia, è vulnerabile alle manipolazioni globali. Questo include metodi come l’uso di sistemi di traduzione, la riformulazione con un altro modello generativo, o l’inserimento e poi la rimozione di un carattere speciale tra ogni parola.
Un’altra preoccupazione importante per OpenAI è che le loro ricerche suggeriscono che il metodo di watermarking del testo potrebbe influenzare alcuni gruppi più di altri. Ad esempio, potrebbe stigmatizzare l’uso dell’IA come strumento di scrittura per i non madrelingua inglesi.
OpenAI ha dato la priorità al lancio di soluzioni di provenienza di contenuti audiovisivi a causa dei livelli di rischio più elevati associati ai modelli di IA attuali, soprattutto durante l’anno delle elezioni negli Stati Uniti, come riportato dal Wall Street Journal. L’azienda ha studiato a fondo la provenienza del testo, esplorando soluzioni come i classificatori, il watermarking e i metadati.
Un portavoce di OpenAI ha detto a TechCrunch, “Il metodo di watermarking del testo che stiamo sviluppando è tecnicamente promettente ma presenta rischi importanti che stiamo valutando mentre studiamo alternative, tra cui la possibilità di essere aggirati da malintenzionati e il potenziale impatto sproporzionato su gruppi come i non anglofoni.”
TechCrunch riporta anche che il watermarking del testo di OpenAI mirerebbe specificamente al testo generato da ChatGPT, piuttosto che ai contenuti provenienti da altri modelli. Questo comporta fare piccoli aggiustamenti nel modo in cui ChatGPT seleziona le parole, creando un watermark invisibile che può essere rilevato da uno strumento separato.
Un sondaggio aziendale, riportato dal Wall Street Journal, ha scoperto che quasi un terzo degli utenti fedeli di ChatGPT sarebbe scoraggiato dalla tecnologia anti-truffa. Questo mette OpenAI in una posizione difficile. I dipendenti sono in conflitto tra il mantenimento della trasparenza e il desiderio di attrarre e trattenere gli utenti.
Nel post del blog di OpenAI, sottolineano che man mano che il volume di testo generato continua ad espandersi, l’importanza di metodi di provenienza affidabili per i contenuti basati su testo diventa sempre più critica.
Lascia un commento
Annulla