Il Modello di Intelligenza Artificiale di Google sotto indagine europea
La Commissione per la Protezione dei Dati (DPC) ha annunciato oggi un’indagine su Google per determinare se l’azienda ha rispettato le leggi europee sulla protezione dei dati durante lo sviluppo del suo modello di intelligenza artificiale, Pathways Language Model 2 (PaLM 2).
PaLM2 è un ampio modello linguistico utilizzato in vari servizi di intelligenza artificiale, tra cui la sintesi delle email. Google ha dichiarato che collaborerà con l’indagine, come riportato dall’AP.
L’indagine valuterà se Google avrebbe dovuto eseguire una Valutazione d’Impatto sulla Protezione dei Dati (DPIA) per valutare i potenziali rischi per i diritti e le libertà degli individui derivanti dalle sue tecnologie AI.
Questa indagine fa parte degli sforzi più ampi del DPC per garantire la conformità con le norme sulla protezione dei dati nel settore dell’AI in tutta Europa. Il trattamento transfrontaliero dei dati, che comporta la gestione dei dati attraverso più paesi dell’UE o che riguarda individui in diverse nazioni, è sotto particolare scrutinio.
Gli strumenti di intelligenza artificiale generativa, noti per produrre informazioni convincenti ma false e per accedere ai dati personali, presentano significativi rischi legali, come sottolineato da TechCrunch. Il DPC, responsabile per garantire la conformità di Google con il Regolamento Generale sulla Protezione dei Dati (GDPR).
A questo scopo, il DPC può imporre multe fino al 4% del fatturato globale annuo dell’azienda madre di Google, Alphabet, in caso di violazioni, come riportato da TechCrunch.
Google ha sviluppato una serie di strumenti AI generativi, tra cui la sua serie Gemini di grandi modelli di linguaggio (precedentemente Bard) utilizzati per varie applicazioni, tra cui il miglioramento della ricerca web tramite chatbot AI, segnala TechCrunch.
Al centro di questi strumenti si trova il PaLM2 di Google, un LLM fondamentale lanciato alla conferenza degli sviluppatori I/O dello scorso anno, ha detto TechCrunch.
Il mese scorso, X di Elon Musk ha subito un esame da parte dei regolatori europei per il suo utilizzo dei dati degli utenti per l’addestramento dell’IA. Il DPC ha avviato un’indagine dopo aver ricevuto reclami secondo i quali X stava alimentando i suoi dati utente nella sua tecnologia Grok AI senza ottenere il consenso adeguato. Sebbene X abbia accettato di limitare il suo trattamento dei dati, non ha subito alcuna sanzione.
Questa indagine fa parte degli sforzi più ampi del DPC per regolare l’uso dei dati personali nello sviluppo dell’IA in tutta l’Unione Europea. L’adozione recente da parte dell’UE del Artificial Intelligence Act rappresenta un passo significativo verso l’istituzione di un quadro normativo per le tecnologie dell’IA all’interno del blocco.
Lascia un commento
Annulla