Il pregiudizio nell’IA di rilevamento delle frodi previdenziali nel Regno Unito suscita preoccupazioni sulla correttezza
Il sistema di intelligenza artificiale del governo britannico per il rilevamento delle frodi previdenziali è stato rilevato come esibire un pregiudizio basato su età, disabilità, stato civile e nazionalità, secondo le valutazioni interne, come riportato oggi da The Guardian.
In fretta? Ecco i fatti rapidi!
- L’IA per la rilevazione delle frodi nel welfare del Regno Unito mostra pregiudizi contro certi gruppi demografici, inclusi le persone disabili.
- Un’analisi interna ha rivelato disparità “statisticamente significative” nel modo in cui le richieste erano segnalate per frode.
- Il DWP sostiene che i gestori di casi umani prendono ancora le decisioni finali nonostante l’uso dello strumento IA.
Il sistema, utilizzato per valutare le richieste di credito universale in tutta l’Inghilterra, segnala in modo sproporzionato certi gruppi per indagine, alimentando timori di discriminazione sistemica, ha dichiarato The Guardian.
Il pregiudizio, descritto come una “disparità di risultati statisticamente significativa”, è stato rivelato in un’analisi di equità condotta dal Dipartimento per il Lavoro e le Pensioni (DWP) a febbraio.
L’analisi ha scoperto che il programma di apprendimento automatico selezionava persone di alcuni gruppi demografici più frequentemente di altri quando determinava chi avrebbe dovuto essere indagato per potenziali frodi, riporta The Guardian.
Questa rivelazione contrasta con le precedenti affermazioni del DWP secondo le quali il sistema AI non presentava rischi immediati di discriminazione o trattamento ingiusto.
Il dipartimento ha difeso il sistema, sottolineando che le decisioni finali sono prese da operatori umani e sostenendo che lo strumento è “ragionevole e proporzionato” vista la stima annuale di 8 miliardi di sterline di frodi ed errori nel sistema di benefici, come riportato da The Guardian.
Tuttavia, l’analisi non ha esplorato potenziali pregiudizi legati a razza, genere, religione, orientamento sessuale o gravidanza, lasciando significative lacune nella comprensione dell’equità del sistema.
Critiche, tra cui il Public Law Project, accusano il governo di adottare un approccio “prima ferisci, poi ripara”, chiedendo una maggiore trasparenza e protezioni contro l’obiettivo di gruppi marginalizzati, come riportato da The Guardian.
“È chiaro che nella stragrande maggioranza dei casi il DWP non ha valutato se i loro processi automatizzati rischiassero di colpire ingiustamente i gruppi marginalizzati,” ha detto Caroline Selman, ricercatrice senior al Public Law Project, come riportato da The Guardian.
Le scoperte arrivano in mezzo a un crescente scrutinio sull’uso dell’IA nei servizi pubblici. Indipendenti rapporti suggeriscono che almeno 55 strumenti automatizzati sono in funzione in tutte le autorità pubbliche del Regno Unito, potenzialmente influenzando le decisioni per milioni di persone, secondo The Guardian.
Eppure, il registro ufficiale del governo sull’IA elenca solo nove sistemi, rivelando una significativa mancanza di responsabilità, afferma The Guardian.
Inoltre, il governo britannico sta affrontando critiche per non aver registrato l’uso dell’IA nel registro obbligatorio, suscitando preoccupazioni riguardanti la trasparenza e l’accountability mano a mano che l’adozione dell’IA aumenta.
Il DWP ha oscurato dettagli cruciali dalla sua analisi di equità, inclusi quali gruppi di età o nazionalità erano segnalati in modo sproporzionato. Gli ufficiali hanno sostenuto che rivelare tali specificità potrebbe permettere ai truffatori di manipolare il sistema, ha riferito The Guardian.
Un portavoce del DWP ha sottolineato che il giudizio umano rimane centrale nel processo decisionale, come riportato da The Guardian. Le rivelazioni aumentano le preoccupazioni più ampie sulla trasparenza del governo nell’implementazione dell’IA, con i critici che sollecitano un controllo più rigoroso e salvaguardie robuste per prevenire abusi.
Lascia un commento
Annulla