Il Cyberbullismo Alimentato dall’IA: l’Orribile Esperienza di un’Adolescente Scatena l’Indignazione
A 14 anni, Francesca Mani fu chiamata nell’ufficio del preside alla Westfield High School, nel New Jersey, dove scoprì che una sua foto era stata alterata in un’immagine nuda utilizzando l’intelligenza artificiale, come riportato da CBS News.
Hai fretta? Ecco i fatti in breve!
- Una ragazza di 14 anni è stata presa di mira da un compagno di classe che ha utilizzato l’IA per creare un’immagine nuda di lei.
- Il sito “nudify” alimentato da IA, Clothoff, è stato utilizzato per creare immagini esplicite di numerosi studenti.
- Gli esperti avvertono del grave danno psicologico e reputazionale causato dalle immagini nude generate da IA, anche se sono false.
Lo scorso ottobre, si diffusero voci alla Westfield High riguardo a ragazzi che possedevano immagini esplicite delle loro compagne di classe. Mani scoprì che lei e diverse altre erano state prese di mira.
Secondo una causa legale presentata da un’altra vittima, un ragazzo ha caricato delle foto su Instagram a Clothoff, un popolare sito di “nudificazione” alimentato da intelligenza artificiale. Il sito, che ha ricevuto oltre 3 milioni di visite il mese scorso, crea falsi nudi realistici in pochi secondi, come riportato da CBS.
Clothoff sostiene di proibire l’elaborazione di foto di minori, ma i suoi meccanismi non sono verificati. Nonostante le dichiarazioni di non responsabilità del sito, almeno un nudo AI di uno studente è stato presumibilmente condiviso su Snapchat, come riportato da CBS.
Mani non ha mai visto l’immagine manipolata di se stessa, ma è stata profondamente colpita dal modo in cui la scuola ha gestito la situazione. Le vittime sono state chiamate pubblicamente in ufficio, mentre i ragazzi coinvolti sono stati rimossi privatamente dalla classe.
“Ho la sensazione che sia stata una grave violazione della nostra privacy, mentre, tipo, i cattivi protagonisti sono stati tolti dalle loro classi in privato,” ha detto Mani come riportato da CBS.
Lo stesso giorno, il preside ha inviato un’email ai genitori, confermando che gli studenti avevano utilizzato l’IA per creare immagini esplicite, riporta la CBS. L’email ha assicurato ai genitori che le immagini erano state eliminate e non venivano circolate, ma la madre di Mani, Dorota, è rimasta scettica.
“Non si può davvero eliminarlo completamente,” ha detto Dorota alla CBS, esprimendo preoccupazione per gli screenshot o i download.
Il distretto scolastico ha rifiutato di fornire dettagli sull’incidente o sulle azioni disciplinari, ma ha dichiarato di aver aggiornato le sue politiche contro le molestie per affrontare l’abuso di IA – una modifica che i Manis avevano sollecitato per mesi, come riportato da CBS.
Yiota Souras, responsabile legale del National Center for Missing and Exploited Children, ha sottolineato il danno duraturo che tali immagini possono causare, anche se false. Le vittime soffrono spesso di stress mentale, danno alla reputazione e perdita di fiducia, come segnalato da CBS.
CBS riporta che negli ultimi 20 mesi, quasi 30 casi simili che coinvolgono nudi AI sono emersi nelle scuole degli Stati Uniti, con ulteriori incidenti segnalati a livello globale.
In almeno tre casi, Snapchat è stato utilizzato per diffondere le immagini. I genitori hanno segnalato ritardi fino a otto mesi per la rimozione di tale contenuto dalla piattaforma, come riportato da CBS.
Snapchat, in risposta alle critiche di un genitore, ha affermato di avere “meccanismi efficienti” per gestire queste segnalazioni e ha dichiarato di avere una “politica di tolleranza zero” per questo tipo di contenuti, riporta CBS.
La legge federale proibisce la pornografia infantile generata da IA se rappresenta condotte esplicitamente sessuali, ma Souras avverte che alcuni nudi generati da IA potrebbero non rientrare nella definizione legale, ha sottolineato CBS.
Dall’incidente, Francesca e Dorota Mani si sono battute per l’adozione di politiche legate all’IA nelle scuole e hanno lavorato con il Congresso per affrontare il problema, ha riferito CBS.
Un disegno di legge federale, il Take It Down Act, co-sponsorizzato dai senatori Ted Cruz e Amy Klobuchar, è stato approvato dal Senato questo mese e attende un voto alla Camera. La legislazione propone sanzioni penali per la condivisione di nudi AI e impone alle piattaforme di social media di rimuovere i contenuti segnalati entro 48 ore, afferma CBS.
Lascia un commento
Annulla