Il Regno Unito Potenzia la Sicurezza dell’IA, Firma una Partnership con Singapore per Sviluppare il Mercato dell’IA di Fiducia

Image by Anthony DELANOIX, from Unsplash

Il Regno Unito Potenzia la Sicurezza dell’IA, Firma una Partnership con Singapore per Sviluppare il Mercato dell’IA di Fiducia

Tempo di lettura: 4 Min.

Hai fretta? Ecco i fatti rapidi!

  • Il mercato britannico di garanzia IA potrebbe crescere sei volte entro il 2035.
  • L’espansione mira a sbloccare una crescita economica di £6.5 miliardi.
  • Nuova piattaforma di garanzia IA lanciata per supportare l’uso responsabile dell’IA.

Il governo britannico ha annunciato ieri nuove misure per sostenere l’uso sicuro e responsabile dell’IA, con l’obiettivo di generare 6,5 miliardi di sterline di crescita economica entro il 2035. Ci si aspetta che il settore britannico di garanzia dell’IA – che si concentra su sistemi di IA equi, trasparenti e sicuri – si espanda sei volte nel prossimo decennio.

Questa crescita è vista come essenziale per la strategia più ampia del governo di incorporare l’IA nei servizi pubblici e aumentare la produttività economica, mantenendo nel contempo la fiducia del pubblico in queste tecnologie.

Peter Kyle, Segretario di Stato per la Scienza, l’Innovazione e la Tecnologia, ha sottolineato che la fiducia del pubblico è essenziale per sfruttare appieno il potenziale dell’IA nel migliorare i servizi e la produttività. Ha notato che questi passaggi mirano a posizionare il Regno Unito come leader nella sicurezza dell’IA.

Per facilitare questa espansione, il Dipartimento per la Scienza, l’Innovazione e la Tecnologia (DSIT) e l’Istituto di Sicurezza dell’IA del Regno Unito hanno introdotto una nuova piattaforma di assicurazione IA, progettata per aiutare le imprese britanniche a gestire i rischi associati all’uso dell’IA.

La piattaforma centralizzerà le risorse per valutare i pregiudizi dei dati, condurre valutazioni di impatto e monitorare le prestazioni dell’IA. Anche le piccole e medie imprese (PMI) avranno accesso a uno strumento di autovalutazione per implementare pratiche di IA responsabili all’interno delle loro organizzazioni.

Il Regno Unito sta anche rafforzando i suoi sforzi internazionali sulla sicurezza dell’IA firmando un partenariato con Singapore.

Il Memorandum di Cooperazione, firmato dal Segretario Kyle e dal Ministro per lo Sviluppo Digitale di Singapore Josephine Teo, mira a promuovere la ricerca congiunta e a stabilire standard comuni per la sicurezza dell’IA.

Questo accordo si basa sulle discussioni tenute al Summit sulla Sicurezza dell’IA dell’anno scorso e si allinea con gli obiettivi della Rete Internazionale degli Istituti di Sicurezza dell’IA (AISI), un’iniziativa globale per coordinare gli sforzi sulla sicurezza dell’IA.

Josephine Teo ha sottolineato che entrambi i paesi sono impegnati a promuovere l’IA per il beneficio pubblico, garantendo al contempo che rimanga sicura.

“La firma di questo Memorandum di Cooperazione con un partner importante, il Regno Unito, si basa su aree di interesse comune esistenti e le estende a nuove opportunità nell’IA”, ha affermato Teo.

Hyoun Park, CEO di Amalgam Insights – una società specializzata in decisioni IT economicamente responsabili – sottolinea che, sebbene sia commercializzata come uno strumento per costruire fiducia nell’IA, lo scopo principale della piattaforma è fornire alle aziende un quadro di valutazione dell’IA allineato con il governo, riporta CIO.

Park ha espresso preoccupazioni riguardo alle attuali capacità della piattaforma. “La piattaforma è ancora piuttosto rudimentale, con piani per un kit di strumenti essenziali che deve ancora essere pienamente sviluppato”, ha detto, come riportato da CIO.

“Questa valutazione si basa sulle risposte umane piuttosto che sull’integrazione diretta con l’IA stessa, e la scala utilizzata dallo strumento di valutazione è vaga, offrendo solo opzioni binarie sì/no o risposte difficili da quantificare”, ha aggiunto.

Park ha anche sottolineato che le valutazioni di pregiudizio potrebbero essere particolarmente impegnative. “Ogni IA ha un pregiudizio, e l’idea che il pregiudizio possa essere eliminato è sia un mito che potenzialmente pericoloso”, ha notato a CIO.

Per le piccole imprese, nuovi requisiti di conformità come valutazioni del rischio e audit dei dati possono rappresentare ulteriori oneri, potenzialmente mettendo sotto stress risorse limitate, afferma la CIO.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Mostra di più...