LinkedIn utilizza i dati degli utenti per addestrare i modelli di AI senza un chiaro consenso
Di fretta? Ecco i fatti essenziali!
- LinkedIn ha utilizzato i dati degli utenti statunitensi per l’IA senza un chiaro avviso.
- Esisteva un’opzione per non aderire, ma LinkedIn inizialmente non ha aggiornato la sua politica sulla privacy.
- Il ritardo nell’aggiornamento di LinkedIn riflette le crescenti preoccupazioni globali sull’uso dei dati dell’IA.
LinkedIn, la piattaforma di networking professionale, ha ricevuto critiche per aver utilizzato i dati degli utenti per addestrare i suoi modelli di intelligenza artificiale senza informare esplicitamente gli utenti in anticipo.
Gli utenti di LinkedIn negli Stati Uniti – ma non quelli nell’UE, EEA o Svizzera, probabilmente a causa di leggi sulla privacy dei dati più severe – hanno un’opzione di opt-out nelle loro impostazioni che rivela che LinkedIn raccoglie dati personali per addestrare i “modelli di intelligenza artificiale per la creazione di contenuti.”
Sebbene l’interruttore in sé non sia una novità, inizialmente LinkedIn non ha aggiornato la sua politica sulla privacy per riflettere questo utilizzo dei dati, come riportato per la prima volta da 404 Media.
In una pagina di aiuto, LinkedIn spiega che i suoi modelli di Intelligenza Artificiale generativa vengono utilizzati per compiti come le funzioni di assistente alla scrittura.
Gli utenti possono scegliere di non consentire l’utilizzo dei loro dati per l’addestramento dell’IA, navigando fino alla sezione “Dati per il miglioramento dell’IA generativa” sotto la scheda Privacy dei dati nelle impostazioni del loro account.
Disattivando l’interruttore, LinkedIn smetterà di utilizzare i dati personali per futuri addestramenti di modelli di IA, anche se ciò non annulla l’addestramento che è già avvenuto.
I termini di servizio sono stati successivamente aggiornati, come riportato da TechCrunch, ma tali aggiornamenti di solito avvengono ben in anticipo rispetto a cambiamenti significativi come il riutilizzo dei dati degli utenti.
Questo approccio di solito permette agli utenti di modificare le loro impostazioni o lasciare la piattaforma se non sono d’accordo con i cambiamenti. Questa volta, tuttavia, non è stato così.
Questo avviene in un contesto di preoccupazioni più ampie su come i dati personali vengano elaborati dai sistemi di Intelligenza Artificiale. L’attenzione sulle pratiche di dati dell’IA si sta intensificando a livello globale.
Uno studio recente del MIT ha rivelato che un numero crescente di siti web sta limitando l’uso dei loro dati per l’addestramento dell’IA.
Inoltre, Il DPC ha recentemente concluso il procedimento legale contro X riguardo al suo strumento di IA dopo che l’azienda ha accettato di rispettare le precedenti restrizioni sull’uso dei dati degli utenti EU/EEA per l’addestramento dell’IA.
L’incidente sottolinea l’importanza crescente della trasparenza e del consenso dell’utente nello sviluppo delle tecnologie IA.
Man mano che l’IA continua a progredire, è fondamentale che le aziende siano chiare riguardo alle loro pratiche relative ai dati e ottengano un permesso esplicito dagli utenti prima di utilizzare le loro informazioni per scopi di formazione.
L’incidente mette inoltre in evidenza le crescenti tensioni tra le aziende di IA e i proprietari dei dati, poiché sempre più organizzazioni richiedono un maggiore controllo su come vengono utilizzati i loro dati.
Lascia un commento
Annulla