Google Segnalerà le Immagini Generate da IA nella Ricerca
Hai fretta? Ecco i Fatti Essenziali!
- Google lancia uno strumento per identificare le immagini modificate dall’IA nei risultati di ricerca
- Google si è unita alla C2PA per creare standard che tracciano le origini dei contenuti digitali
- Il sistema si basa sullo standard C2PA, ma l’adozione è limitata tra le aziende e gli strumenti.
Google ha annunciato oggi che ha intenzione di implementare dei cambiamenti nella Ricerca Google per rendere più chiare le immagini nei risultati che sono state generate o modificate utilizzando strumenti di intelligenza artificiale.
Il gigante tecnologico sta sfruttando una tecnologia chiamata “Provenance” per identificare ed etichettare tali immagini, con l’obiettivo di aumentare la trasparenza per l’utente e contrastare la diffusione di informazioni errate.
Google ha spiegato che la tecnologia Provenance può determinare se una foto è stata scattata con una fotocamera, modificata da un software o creata interamente da un’intelligenza artificiale generativa.
Queste informazioni saranno rese disponibili agli utenti attraverso la funzionalità “Informazioni su questa immagine”, fornendo loro un contesto più completo e aiutandoli a prendere decisioni informate sul contenuto che consumano.
Per rafforzare i suoi sforzi, Google si è unita alla Coalition for Content Provenance and Authenticity (C2PA) come membro del comitato direttivo all’inizio di quest’anno. La C2PA ha lavorato per sviluppare standard per tracciare la storia dei contenuti digitali, compresi immagini e video.
Tuttavia, TechCrunch (TC) nota che solo le immagini con “metadati C2PA” saranno segnalate come manipolate dall’IA nella ricerca di Google.
Nonostante aziende come Google, Amazon, Microsoft, OpenAI e Adobe supportino C2PA, lo standard non è stato adottato su larga scala, come riportato da TC.
Come osservato da The Verge, solo un numero limitato di strumenti AI generativi e fotocamere, come quelle di Leica e Sony, supportano le specifiche C2PA.
Inoltre, TC sottolinea che i metadati C2PA, come qualsiasi tipo di metadati, possono essere rimossi, danneggiati o diventare illeggibili. Molti strumenti AI popolari, come Flux, che alimenta il chatbot Grok di xAI, non includono i metadati C2PA, in parte perché i loro sviluppatori non hanno adottato lo standard.
Sebbene questa iniziativa mostri promesse nel combattere i contenuti dannosi dei deepfake, il suo successo risiede nella diffusa adozione del sistema di watermarking C2PA da parte dei produttori di telecamere e degli sviluppatori di AI generativa.
Tuttavia, anche con C2PA in atto, gli attori malevoli possono ancora rimuovere o manipolare i metadati di un’immagine, compromettendo potenzialmente la capacità di Google di rilevare accuratamente i contenuti generati da IA.
Lascia un commento
Annulla