![Google Revoca il Divieto sull’Uso dell’IA per Armi e Tecnologie di Sorveglianza](https://it.wizcase.com/wp-content/uploads/2025/02/Screenshot-2025-02-05-at-16.07.47.webp)
Image by Matthew Henry, from Unsplash
Google Revoca il Divieto sull’Uso dell’IA per Armi e Tecnologie di Sorveglianza
Alphabet, la società madre di Google, ha revocato la sua promessa di non utilizzare l’IA per sviluppare armi o strumenti di sorveglianza.
Hai fretta? Ecco i fatti principali!
- Google ha aggiornato le sue linee guida sull’etica dell’IA, rimuovendo le restrizioni relative ai danni, poco prima del report sui guadagni.
- Il capo dell’IA, Demis Hassabis, ha sottolineato la sicurezza nazionale e la competizione globale dell’IA come fattori chiave.
- Gli esperti avvertono che le linee guida aggiornate di Google potrebbero portare a un maggiore sviluppo di armi autonome.
Martedì, poco prima di annunciare utili inferiori alle aspettative, l’azienda ha aggiornato le sue linee guida sull’etica dell’IA, eliminando i riferimenti all’evitare tecnologie che potrebbero causare danni, come riportato da The Guardian.
Il responsabile dell’IA di Google, Demis Hassabis, ha spiegato che le linee guida vengono riviste per adattarsi a un mondo in cambiamento, con l’IA ora vista come fondamentale per la protezione della “sicurezza nazionale.”
In un post sul blog, Hassabis e il vicepresidente senior James Manyika hanno sottolineato che, mentre la competizione globale sull’IA si intensifica, l’azienda ritiene che “le democrazie dovrebbero guidare lo sviluppo dell’IA”, guidate dai principi di “libertà, uguaglianza e rispetto per i diritti umani.”
WIRED ha evidenziato che Google ha condiviso gli aggiornamenti ai suoi principi sull’IA in una nota aggiunta alla sommità di un post del blog del 2018 che introduceva le linee guida. “Abbiamo aggiornato i nostri Principi sull’IA. Visita AI.Google per le ultime novità”, recita la nota.
Aljazeera ha riportato che Google ha introdotto per la prima volta i suoi principi sull’IA nel 2018 in seguito alle proteste dei dipendenti riguardo al coinvolgimento dell’azienda nel Progetto Maven del Dipartimento della Difesa degli Stati Uniti, che esplorava l’utilizzo dell’IA per aiutare l’esercito a individuare obiettivi per gli attacchi di droni.
In risposta alle polemiche, che hanno portato a dimissioni di dipendenti e migliaia di petizioni, Google ha deciso di non rinnovare il suo contratto con il Pentagono. Più tardi nello stesso anno, Google ha scelto di non competere per un contratto di computing cloud da $10 miliardi con il Pentagono, citando preoccupazioni che il progetto potrebbe non essere in linea con i suoi principi di intelligenza artificiale, come riportato da Aljazeera.
L’aggiornamento della politica etica di Google segue anche la partecipazione del CEO di Alphabet Inc., Sundar Pichai, insieme a leader tecnologici come Jeff Bezos di Amazon e Mark Zuckerberg di Meta, all’inaugurazione del 20 gennaio del Presidente degli Stati Uniti Donald Trump.
Tuttavia, nell’annuncio di martedì, Google ha rivisto i suoi impegni in materia di IA. La pagina web aggiornata non elenca più usi specificamente proibiti per i suoi progetti di IA, offrendo invece all’azienda una maggiore flessibilità per esplorare applicazioni sensibili.
Il documento rivisto sottolinea ora che Google manterrà “un adeguato controllo umano, la dovuta diligenza e i meccanismi di feedback per allinearsi con gli obiettivi degli utenti, la responsabilità sociale e i principi universalmente accettati del diritto internazionale e dei diritti umani.” Inoltre, l’azienda dichiara la sua intenzione di “mitigare risultati non intenzionali o dannosi.”
Tuttavia, gli esperti avvertono che l’IA potrebbe presto essere ampiamente dispiegata sul campo di battaglia, sebbene le preoccupazioni stiano aumentando riguardo al suo uso, in particolare in relazione ai sistemi di armi autonomi.
“Per un leader mondiale dell’industria abbandonare le linee rosse che si era imposto segnala un preoccupante cambiamento, in un momento in cui abbiamo più che mai bisogno di una leadership responsabile nell’IA,” ha detto Anna Bacciarelli, ricercatrice senior di AI presso Human Rights Watch, come riportato da BBC.
Bacciarelli ha inoltre sottolineato che la decisione “unilaterale” mette in evidenza “perché i principi volontari non sono un sostituto adeguato per la regolamentazione e la legge vincolante.”
Lascia un commento
Annulla