L’Università di Chicago offre con Glaze e Nightshade una difesa agli artisti contro l’IA
Di fretta? Ecco i fatti essenziali!
- Glaze e Nightshade proteggono le opere degli artisti dall’uso non autorizzato nell’addestramento dell’IA.
- Glaze maschera le immagini per impedire all’IA di replicare lo stile di un artista.
- Nightshade disturba l’IA aggiungendo pixel “avvelenati” che corrompono i dati di addestramento.
Gli artisti stanno reagendo contro i modelli IA sfruttatori con Glaze e Nightshade, due strumenti sviluppati da Ben Zhao e il suo team presso il SAND Lab dell’Università di Chicago, come riportato oggi da MIT Technology Review.
Questi strumenti mirano a proteggere le opere degli artisti dall’essere utilizzate senza consenso per addestrare i modelli IA, una pratica che molti creatori considerano come un furto. Glaze, scaricato più di 4 milioni di volte dal suo lancio nel marzo 2023, maschera le immagini aggiungendo cambiamenti sottili che impediscono all’IA di apprendere lo stile di un artista, afferma il MIT.
Nightshade, un “contrappeso” offensivo, interrompe ulteriormente i modelli di Intelligenza Artificiale introducendo modifiche invisibili che possono corrompere l’apprendimento dell’IA se utilizzate nella formazione, come sottolineato dal MIT.
Gli strumenti sono stati ispirati dalle preoccupazioni degli artisti riguardo alla rapida ascesa dell’IA generativa, che si basa spesso su immagini online per creare nuove opere. Il MIT riporta che l’illustratrice fantasy Karla Ortiz e altri creatori hanno espresso timori di perdere il loro sostentamento mentre i modelli di IA replicano i loro stili distintivi senza permesso o pagamento.
Per gli artisti, pubblicare online è essenziale per la visibilità e il reddito, eppure molti hanno pensato di rimuovere il loro lavoro per evitare di essere utilizzati per l’addestramento dell’IA, un atto che ostacolerebbe le loro carriere, come segnalato dal MIT.
Nightshade, lanciato un anno dopo Glaze, offre una difesa più aggressiva, riporta il MIT. Aggiungendo pixel “avvelenati” alle immagini, interrompe l’addestramento dell’IA, causando ai modelli di produrre risultati distorti se queste immagini vengono utilizzate.
L’effetto simbolico della belladonna ha risuonato tra gli artisti, che lo vedono come giustizia poetica: se il loro lavoro viene rubato per l’addestramento dell’IA, può danneggiare i sistemi che lo sfruttano.
Il MIT sostiene che questi strumenti hanno suscitato un certo scetticismo, poiché gli artisti inizialmente erano preoccupati per la privacy dei dati. Per affrontare questa questione, il SAND Lab ha rilasciato una versione di Glaze che funziona offline, garantendo l’assenza di trasferimento di dati e costruendo fiducia con gli artisti diffidenti dello sfruttamento.
Il laboratorio ha recentemente ampliato l’accesso collaborando con Cara, una nuova piattaforma sociale che vieta i contenuti generati dall’IA, come segnalato dal MIT.
Zhao e il suo team mirano a cambiare il rapporto di potere tra i singoli creatori e le aziende di IA.
Offrendo strumenti che proteggono la creatività dalle grandi imprese, Zhao spera di dare potere agli artisti per mantenere il controllo sul loro lavoro e ridefinire gli standard etici intorno all’IA e alla proprietà intellettuale, afferma il MIT.
Lo sforzo sta guadagnando slancio, ma alcuni esperti avvertono che gli strumenti potrebbero non offrire una protezione infallibile, poiché gli hacker e gli sviluppatori di IA cercano modi per eludere queste salvaguardie, come segnalato dal MIT.
Ora che Glaze e Nightshade sono accessibili gratuitamente, il SAND Lab di Zhao continua a guidare la lotta per difendere l’integrità artistica contro l’espansione dell’influenza della creazione di contenuti guidata dall’IA.
Lascia un commento
Annulla