L’influenza delle Big Tech sugli standard di IA dell’UE suscita preoccupazioni
Le grandi aziende della tecnologia detengono un notevole potere sullo sviluppo degli standard dell’UE per l’IA, secondo un rapporto del gruppo di campagna Corporate Europe Observatory (CEO).
Hai fretta? Ecco i fatti essenziali!
- Oltre la metà dei membri di JTC21 rappresentano interessi aziendali o di consulenza, non della società civile.
- Le aziende danno priorità a regolamentazioni leggere sull’IA, minando le salvaguardie per i diritti fondamentali.
- La società civile e il mondo accademico faticano a partecipare all’elaborazione degli standard dell’IA a causa di barriere.
Il rapporto solleva preoccupazioni riguardo l’inclusività e l’equità del processo di definizione degli standard, che sostiene il nuovo AI Act dell’UE, recentemente approvato.
La Legge sull’Intelligenza Artificiale, divenuta legge nell’agosto 2024, adotta un approccio basato sul rischio, categorizzando i sistemi di IA in base ai livelli di rischio. Sebbene i sistemi ad alto rischio, come quelli nel settore sanitario e nelle applicazioni giudiziarie, siano soggetti a requisiti più rigorosi, le linee guida specifiche rimangono indefinite, come osservato dal CEO.
Oltre la metà (55%) dei 143 membri del Comitato Tecnico Congiunto sull’Intelligenza Artificiale (JTC21), istituito dagli organi di standardizzazione europei CEN e CENELEC, rappresenta gli interessi aziendali o di consulenza.
Il rapporto critica la maggior parte delle organizzazioni di definizione degli standard, come CEN e CENELEC, per essere private e mancare di responsabilità democratica. Questi enti spesso addebitano tariffe elevate e operano con una trasparenza limitata, rendendo difficile la partecipazione della società civile.
Nel frattempo, la società civile si trova di fronte a barriere logistiche e finanziarie per la partecipazione. Solo 23 rappresentanti (il 16%) nel campione dell’Osservatorio Corporativo Europeo provenivano dal mondo accademico, e solo 13 (il 9%) rappresentavano la società civile.
Mentre le organizzazioni dell’Allegato III dell’UE difendono gli interessi della società, mancano di diritti di voto e risorse rispetto ai partecipanti aziendali. Oracle, una grande azienda tecnologica, ha elogiato pubblicamente il suo coinvolgimento nella standardizzazione dell’IA, affermando che i suoi sforzi garantiscono standard “etici, affidabili e accessibili”, come riportato dall’amministratore delegato.
Tuttavia, il rapporto sostiene che aziende come Oracle, che ha legami con i sistemi di sorveglianza globale, danno priorità a regolamentazioni leggere che si allineano con i loro interessi piuttosto che affrontare i diritti fondamentali. Un coinvolgimento simile da parte di aziende come Microsoft, Amazon e Google alimenta le paure di salvaguardie indebolite all’interno del AI Act.
Bram Vranken, ricercatore presso CEO, ha espresso preoccupazione riguardo a questa delega della politica pubblica.
“La decisione della Commissione Europea di delegare la politica pubblica sull’intelligenza artificiale a un organismo privato è profondamente problematica. Per la prima volta, l’elaborazione di standard viene utilizzata per implementare requisiti relativi ai diritti fondamentali, all’equità, all’affidabilità e ai pregiudizi”, ha detto, come riportato da Euro News.
CEN e CENELEC non hanno rivelato i partecipanti al loro sviluppo di standard per l’IA. Le richieste del CEO per le liste dei partecipanti dal comitato JTC21 sono state accolte con silenzio, e il loro Codice di Condotta impone la segretezza riguardo le identità e le affiliazioni dei partecipanti.
Il CEO ha descritto queste regole come eccessivamente restrittive, impedendo una discussione aperta sulla composizione del comitato.
In risposta al rapporto, la Commissione Europea ha dichiarato che le norme armonizzate saranno sottoposte a valutazione per garantire che siano in linea con gli obiettivi della Legge sull’IA. Gli Stati membri e il Parlamento Europeo mantengono inoltre il diritto di contestare queste norme, come riportato da Euro News.
In conclusione, i legislatori hanno delegato il compito di operativizzare queste norme a organizzazioni private. I gruppi della società civile e gli esperti indipendenti, spesso sottodimensionati e in minoranza, fanno fatica a contrapporsi alla predominanza delle aziende.
Questo squilibrio rischia di minare le protezioni contro la discriminazione, le violazioni della privacy e altri diritti fondamentali, lasciando la governance dell’IA in Europa in gran parte modellata dagli interessi dell’industria.
Lascia un commento
Annulla