Le creatrici esigono che i giganti della tecnologia paghino per i dati di addestramento dell’IA

Image by Cristofer Maximilian, from Unsplash

Le creatrici esigono che i giganti della tecnologia paghino per i dati di addestramento dell’IA

Tempo di lettura: 5 Min.

I governi stanno permettendo agli sviluppatori di IA di rubare contenuti – sia creativi che giornalistici – per paura di scontentare il settore tecnologico e danneggiare gli investimenti, ha sentito questa settimana una commissione parlamentare del Regno Unito, come riportato per la prima volta da The Register.

Di fretta? Ecco i Fatti Salienti!

  • I parlamentari britannici hanno ascoltato le preoccupazioni riguardo l’IA che sfrutta i contenuti protetti da copyright senza compensazione.
  • Il compositore Max Richter ha avvertito che l’IA minaccia il sostentamento dei musicisti e la loro originalità.
  • Gli editori hanno scoperto 1.000 bot che estraevano dati da 3.000 siti di notizie per i modelli di IA.

Nonostante una figura dell’industria tecnologica insistesse sul fatto che il “peccato originale” del text e data mining fosse già avvenuto e che creatori di contenuti e legislatori dovessero andare avanti, una commissione congiunta di parlamentari ha sentito le lamentele di editori e un compositore, indignati per lo sfruttamento incontrollato del materiale protetto da copyright da parte dell’industria tecnologica.

La Commissione per la Cultura, i Media e lo Sport e la Commissione per la Scienza, l’Innovazione e la Tecnologia hanno chiesto al compositore Max Richter come avrebbe saputo se degli “attori in mala fede” stessero utilizzando il suo materiale per addestrare i modelli di intelligenza artificiale.

“Non c’è davvero nulla che io possa fare,” ha detto ai membri del parlamento. “Ci sono un paio di modelli di intelligenza artificiale per la musica, ed è perfettamente facile farli generare un pezzo di musica che suona in modo inquietante come me,” ha detto, come riportato da The Register.

“Non sarebbe possibile a meno che non abbia aspirato le mie cose senza chiedermi e senza pagarle. Questo sta succedendo su larga scala. È ovviamente accaduto praticamente a ogni artista il cui lavoro è su internet,” ha aggiunto Richter.

Richter, il cui lavoro è stato utilizzato in importanti colonne sonore di film e televisione, ha avvertito che il materiale automatizzato metterebbe in ombra i creatori umani, impoverendo i musicisti. “Stai per assistere ad una vanillizzazione della cultura musicale,” ha detto, come riportato da The Register.

“Se permettiamo l’erosione del diritto d’autore, che è veramente come si crea il valore nel settore musicale, allora ci troveremo in una situazione in cui non ci saranno più artisti in futuro,” ha aggiunto.

James Smith, ex membro del team di Google, ha fatto eco a questo sentimento, dicendo: “Il peccato originale, se volete, è avvenuto.” Ha suggerito che i governi dovrebbero concentrarsi sul sostegno alla licenza come modello alternativo di monetizzazione, come riportato da The Register.

Matt Rogerson, direttore della politica pubblica globale al Financial Times, non è d’accordo, sottolineando che le aziende di intelligenza artificiale stavano attivamente raschiando contenuti senza permesso. “Possiamo solo occuparci di ciò che vediamo davanti a noi”, ha detto, come riportato da The Register.

Uno studio ha scoperto che 1.000 bot unici stavano raschiando dati da 3.000 siti web di editori, probabilmente per l’addestramento di modelli di intelligenza artificiale, secondo The Register.

Sajeeda Merali, direttrice esecutiva dell’Associazione Editori Professionisti, ha criticato l’argomento del settore dell’IA secondo cui la trasparenza sulla raccolta di dati è commercialmente sensibile. “La sua vera preoccupazione è che gli editori chiederebbero allora un valore equo in cambio di quei dati”, ha detto, come riportato da The Register.

La controversia sui dati di addestramento dell’IA è aumentata a ottobre quando oltre 13.500 artisti hanno firmato una petizione per impedire alle aziende di IA di raschiare opere creative senza consenso. Organizzata dal compositore ed ex dirigente di IA Ed Newton-Rex, la petizione è stata firmata da personaggi pubblici come Julianne Moore, Thom Yorke e Kazuo Ishiguro.

“Ci sono tre risorse chiave di cui le aziende di intelligenza artificiale generativa hanno bisogno per costruire modelli di IA: persone, capacità di calcolo e dati. Investono somme enormi nelle prime due – a volte un milione di dollari per ingegnere, e fino a un miliardo di dollari per modello. Ma si aspettano di ottenere la terza – i dati di addestramento – gratuitamente”, ha detto Newton-Rex.

Le tensioni si sono ulteriormente acuite quando un gruppo di artisti ha divulgato l’accesso allo strumento di conversione testo-video di OpenAI, Sora, in segno di protesta. Definendosi “Sora PR Puppets“, hanno fornito l’accesso gratuito all’API di Sora tramite Hugging Face, permettendo agli utenti di generare clip video per tre ore prima che OpenAI lo bloccasse.

I manifestanti sostenevano che OpenAI trattasse gli artisti come “burattini di PR”, sfruttando il lavoro non retribuito per un’azienda da 157 miliardi di dollari. Hanno rilasciato una lettera aperta richiedendo una giusta retribuzione e hanno invitato gli artisti a sviluppare i loro modelli di AI.

Con artisti ed editori che si oppongono all’uso incontrollato della loro contento da parte dell’IA, il dibattito sulle pratiche etiche di formazione dell’IA continua ad intensificarsi. Il governo britannico è sotto crescente pressione per implementare politiche che proteggano le industrie creative senza soffocare l’avanzamento tecnologico.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...