Google Aggiorna le Politiche per Combattere Deepfakes Espliciti Non Consensuali

Image by firmbee, from Uplash

Google Aggiorna le Politiche per Combattere Deepfakes Espliciti Non Consensuali

Tempo di lettura: 3 Min.

Ieri, Google ha annunciato importanti aggiornamenti delle sue politiche, volti ad aiutare gli individui a controllare espliciti “deepfake”. Questi sono immagini e video generati da intelligenza artificiale che ritraggono persone in contesti sessualmente espliciti senza il loro consenso.

Come uno degli aggiornamenti chiave, le persone possono richiedere la rimozione di immagini esplicite false non consensuali dalla Ricerca. Google ha semplificato e reso più efficace questo processo. Quando una richiesta ha successo, i sistemi di Google filtranteranno anche tutti i risultati espliciti su ricerche simili e rimuoveranno i duplicati.

Inoltre, per combattere i contenuti dannosi, Google ha aggiornato i suoi sistemi di classificazione per dare priorità alle informazioni di alta qualità. Gli aggiornamenti del ranking ridurranno i contenuti esplicitamente falsi nei risultati di ricerca. Per le ricerche che cercano specificamente contenuti espliciti con i nomi delle persone, saranno privilegiati i contenuti di alta qualità e non espliciti. Ciò ha ridotto l’esposizione a immagini esplicite di oltre il 70%.

Google sta anche lavorando per distinguere meglio i contenuti espliciti reali e consensuali dai contenuti espliciti falsi. I siti con un alto volume di immagini esplicite false rimosse saranno declassati.

Sottolineando l’urgenza di questi aggiornamenti, un ricercatore indipendente ha recentemente condiviso uno studio con WIRED, rivelando l’ampio raggio di diffusione dei video deepfake non consensuali. Lo studio mostra che almeno 244.625 video sono stati caricati sui primi 35 siti web che ospitano pornografia deepfake negli ultimi sette anni. Da notare che 113.000 di questi video sono stati caricati solo nei primi nove mesi del 2023, un aumento del 54 percento rispetto al numero totale di video caricati nel 2022. Questi dati allarmanti sottolineano la crescente diffusione di questo contenuto dannoso.

Un rapporto di WIRED a Marzo ha rivelato che Google ha ricevuto oltre 13.000 richieste di rimozione di link a deepfake espliciti da una dozzina di siti web popolari. Il gigante tecnologico ha risposto a circa l’82% di queste richieste. Questa statistica dimostra il volume significativo di contenuti dannosi e la domanda di rimozione.

Le storie personali evidenziano l’impatto grave dei deepfake. Ieri il New York Times ha riportato la storia di Sabrina Javellana, una stella nascente della politica in Florida, che ha scoperto la circolazione online di deepfake a sua immagine. A fronte di un continuo assedio, Javellana si è ritirata dalla politica e ha scelto un ruolo meno pubblico.

In un altro caso, questa settimana la BBC ha riferito che una famiglia sostiene che la polizia del West Yorkshire non sia riuscita a proteggere la loro figlia di 12 anni. Alcuni bulli avevano pubblicato su Snapchat un’immagine esplicita di lei creata con la tecnologia deepfake. Inizialmente, la polizia ha comunicato alla famiglia che non si poteva fare nulla poiché Snapchat ha sede negli Stati Uniti. L’immagine ha traumatizzato la ragazza e si è diffusa ampiamente.

Gli aggiornamenti delle politiche di Google rappresentano un passo significativo verso la risoluzione della crisi dei deepfake. Tuttavia, la complessità del problema richiede sforzi continui e collaborazioni per affrontare completamente il problema.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...