Gli Strumenti di Intelligenza Artificiale del Governo Britannico Sotto Esame per Preoccupazioni di Razzismo e Pregiudizi

Image by Wesley Fryer, from Flickr

Gli Strumenti di Intelligenza Artificiale del Governo Britannico Sotto Esame per Preoccupazioni di Razzismo e Pregiudizi

Tempo di lettura: 3 Min.

  • Kiara Fabbri

    Scritto da: Kiara Fabbri Giornalista multimediale

  • Il team di localizzazione e traduzione

    Tradotto da Il team di localizzazione e traduzione Servizi di localizzazione e traduzione

The Guardian ha riportato oggi che il governo del Regno Unito pubblicherà presto i dettagli degli strumenti di intelligenza artificiale utilizzati in vari dipartimenti, a seguito di preoccupazioni riguardanti un possibile razzismo e pregiudizio incorporati in queste tecnologie.

La decisione di divulgare questi strumenti di intelligenza artificiale arriva dopo la pressione da parte dei sostenitori della trasparenza che hanno suonato l’allarme sulla segretezza e possibili pratiche discriminatorie all’interno di questi sistemi. Questi strumenti di intelligenza artificiale sono stati utilizzati per compiti come il rilevamento di matrimoni fasulli e l’identificazione di frodi nelle richieste di benefici.

The Public Law Project (PLP), un’organizzazione caritatevole per l’accesso alla giustizia, è stata in prima linea su questa questione, facendo pressione per maggiore trasparenza ed equità nell’implementazione di tale tecnologia.

Nel mese di agosto 2020, l’Home Office ha accettato di sospendere un algoritmo di computer utilizzato per ordinare le domande di visto a seguito di accuse di razzismo e pregiudizio. Gli ufficiali hanno interrotto l’algoritmo a seguito di una sfida legale del Consiglio Congiunto per il Benessere degli Immigrati e del gruppo di diritti digitali Foxglove, come riportato dal Guardian.

The Guardian riporta inoltre che Foxglove ha affermato che a certe nazionalità veniva automaticamente assegnato un punteggio di rischio “rosso”, portando a una maggiore probabilità di rifiuto del visto. Hanno sostenuto che questo processo equivaleva a discriminazione razziale.

Il centro del governo per l’Etica dei Dati e l’Innovazione ha avvertito in un rapporto che l’IA spesso amplifica i pregiudizi. Il centro ha contribuito a sviluppare uno standard di registrazione della trasparenza algoritmica per gli enti pubblici che utilizzano l’IA e gli strumenti algoritmici, proponendo che i modelli che interagiscono con il pubblico o influenzano le decisioni vengano pubblicati su un registro.

Come riportato dal Guardian, il Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT) ha confermato questo fine settimana che i dipartimenti ora riferiranno sull’uso della tecnologia secondo questo standard.

Un portavoce del DSIT ha dichiarato al Guardian: “La tecnologia ha un enorme potenziale per migliorare i servizi pubblici, ma sappiamo che è importante mantenere le giuste salvaguardie, compresa, dove appropriato, la supervisione umana e altre forme di governance.”

“Lo standard di registrazione della trasparenza algoritmica è ora obbligatorio per tutti i dipartimenti, con un certo numero di registrazioni che verranno pubblicate a breve. Continuiamo a esplorare come può essere espanso in tutto il settore pubblico. Incoraggiamo tutte le organizzazioni a utilizzare l’IA e i dati in un modo che costruisca la fiducia del pubblico attraverso strumenti, linee guida e standard.”

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Mostra di più...