Possibili Scappatoie nelle Proibizioni AI dell’UE Potrebbero Consentire alla Polizia di Utilizzare Tecnologie Controversie
Il nuovo AI Act dell’UE mira a regolamentare l’IA, ma affronta critiche per le lacune, le esenzioni e l’influenza delle aziende.
In fretta? Ecco i Fatti Essenziali!
- I critici sostengono che la legge presenti delle falle, specialmente per quanto riguarda le forze dell’ordine e le autorità di migrazione.
- Le esenzioni consentono pratiche di intelligenza artificiale come il riconoscimento facciale in tempo reale e il rilevamento delle emozioni in alcuni casi.
- I gruppi per i diritti digitali avvertono che le eccezioni alla legge indeboliscono le protezioni contro gli abusi.
Il nuovo AI Act dell’Unione Europea, rappresenta un passo significativo nella regolamentazione dell’intelligenza artificiale. Questa legislazione, la prima al mondo, vieta certi usi “inaccettabili” della tecnologia AI, con l’obiettivo di proteggere i cittadini e preservare i valori democratici.
Tra le proibizioni ci sono la polizia predittiva, l’estrazione di immagini facciali da internet per il riconoscimento, e l’uso dell’IA per rilevare le emozioni dai dati biometrici. Tuttavia, i critici sostengono che la legge contiene significative lacune, in particolare quando si tratta di autorità di polizia e migrazione.
Sebbene il Regolamento sull’IA vieti in linea di principio certi usi dell’IA, include esenzioni che potrebbero consentire alle forze di polizia e alle autorità di migrazione europee di continuare a utilizzare pratiche controverse di IA, come riportato per la prima volta da Politico.
Ad esempio, il riconoscimento facciale in tempo reale negli spazi pubblici, sebbene ampiamente proibito, può comunque essere consentito in casi eccezionali, come le indagini penali gravi.
Allo stesso modo, la rilevazione delle emozioni in ambienti pubblici è proibita, ma potrebbero essere fatte delle eccezioni per motivi di applicazione della legge e di migrazione, sollevando preoccupazioni riguardo l’uso potenziale dell’IA per identificare inganni ai confini.
Le ampie esenzioni della legge hanno generato allarme tra i gruppi per i diritti digitali. Una coalizione di 22 organizzazioni ha avvertito che l’AI Act non affronta in modo adeguato le preoccupazioni riguardanti l’uso della tecnologia da parte delle forze dell’ordine.
“La lacuna più evidente è il fatto che i divieti non si applicano alle forze dell’ordine e alle autorità migratorie,” ha detto Caterina Rodelli, analista delle politiche dell’UE presso Access Now, come riferito da Politico.
La Legge sull’IA dell’UE vieta anche l’uso dell’IA per il controllo sociale, una misura introdotta per impedire che l’IA venga utilizzata per minare le libertà individuali o la democrazia.
Brando Benifei, un legislatore italiano coinvolto nella stesura della legge, ha spiegato che l’obiettivo è evitare che le tecnologie AI vengano sfruttate per il “controllo sociale” o la “compressione delle nostre libertà”, come riportato da Politico.
Secondo Politico, questa posizione è stata influenzata da episodi di alto profilo come l’uso controverso dell’IA da parte delle autorità fiscali olandesi per identificare frodi nel 2019, che hanno accusato ingiustamente circa 26.000 persone di frode.
In questo caso, le autorità hanno utilizzato un algoritmo per individuare potenziali frodi relative ai benefici per l’assistenza all’infanzia, ma l’algoritmo difettoso ha portato a una diffusa identificazione errata e a danni per la vita dei cittadini innocenti.
La controversia che ha circondato questo evento ha giocato un ruolo fondamentale nella definizione delle restrizioni legali sulle previsioni della polizia e altre forme di abuso dell’IA.
Nel frattempo, un rapporto del Corporate Europe Observatory (CEO) solleva preoccupazioni riguardo l’influenza delle grandi aziende tecnologiche nello sviluppo degli standard IA dell’UE. Il rapporto rivela che oltre la metà dei membri del Comitato Tecnico Congiunto sull’IA (JTC21), responsabile della definizione degli standard IA, rappresenta interessi aziendali o di consulenza.
Grandi aziende come Oracle, Microsoft, Amazon e Google stanno facendo pressione per regolamentazioni più leggere che diano priorità ai loro interessi commerciali, piuttosto che proteggere i diritti fondamentali o il benessere della società.
Questa influenza delle grandi aziende ha acceso gli allarmi secondo cui l’AI Act dell’UE potrebbe essere minato dagli interessi dell’industria concentrati sulla redditività piuttosto che sulle considerazioni etiche. Inoltre, i rappresentanti della società civile e del mondo accademico affrontano sfide finanziarie e logistiche nel partecipare al processo di definizione degli standard.
Il rapporto sottolinea la mancanza di trasparenza e responsabilità democratica all’interno di organizzazioni di definizione degli standard come CEN e CENELEC, suscitando preoccupazioni sulla equità e l’inclusività del processo di sviluppo degli standard.
Sebbene l’AI Act ponga l’UE all’avanguardia della regolamentazione globale dell’IA, il dibattito in corso sulle sue lacune suggerisce che bilanciare l’innovazione con la salvaguardia dei diritti umani sarà un compito delicato in avanti.
Lascia un commento
Annulla