Sempre più Adolescenti Sono Indotti in Errore da Contenuti Generati da Intelligenza Artificiale, Rivela uno Studio
Un numero crescente di adolescenti fatica a distinguere tra contenuti online autentici e manipolati, con i media generati dall’IA che aggiungono alla confusione.
Di fretta? Ecco i Fatti Essenziali!
- Molti adolescenti hanno condiviso contenuti che in seguito hanno scoperto essere falsi.
- Molti adolescenti non si fidano delle aziende tecnologiche per quanto riguarda la priorità alla loro salute mentale.
- La maggior parte degli adolescenti sostiene la marcatura dei contenuti generati dall’IA per garantire trasparenza.
Un recente rapporto evidenzia che il 35% degli adolescenti è stato ingannato da contenuti falsi, mentre il 22% ha ammesso di aver condiviso contenuti che in seguito ha scoperto essere falsi, e il 28% ha messo in dubbio se stesse conversando con un essere umano o con un chatbot.
Queste esperienze hanno significativamente rimodellato la fiducia degli adolescenti nelle informazioni online. Il rapporto ha riscontrato che il 72% degli adolescenti ha modificato il modo in cui valuta i contenuti digitali dopo aver incontrato materiale ingannevole.
Inoltre, più di un terzo (35%) ritiene che l’AI generativa eroderà ulteriormente la fiducia nelle informazioni online. Coloro che sono stati ingannati da contenuti falsi sono ancora più scettici, con il 40% che sostiene che l’AI renderà più difficile verificare l’accuratezza, rispetto al 27% di coloro che non hanno avuto esperienze simili.
L’intelligenza artificiale generativa si trova di fronte a seri problemi di credibilità tra gli adolescenti, in particolare nell’ambiente scolastico. Quasi due su cinque (39%) degli studenti che hanno utilizzato l’IA per i compiti scolastici hanno segnalato l’individuazione di inesattezze nel contenuto generato dall’IA. Nel frattempo, il 36% non ha notato alcun problema, e il 25% non era sicuro.
Questo solleva preoccupazioni sulla affidabilità dell’IA nei contesti educativi, evidenziando la necessità di strumenti migliori e di capacità di pensiero critico per aiutare gli adolescenti a valutare il contenuto generato dall’IA.
Oltre all’IA, la fiducia nelle grandi aziende tecnologiche rimane bassa. Circa il 64% degli adolescenti ritiene che le grandi aziende tecnologiche non diano priorità alla loro salute mentale, e il 62% pensa che queste aziende non proteggerebbero la sicurezza degli utenti se ciò danneggiasse i loro profitti.
Più della metà dubita anche che i giganti della tecnologia prendano decisioni etiche sul design (53%), tutelino i dati personali (52%) o prendano in considerazione in modo equo le esigenze dei diversi utenti (51%). Riguardo all’IA, il 47% ha poca fiducia nelle aziende tecnologiche che prendono decisioni responsabili riguardo al suo utilizzo.
Nonostante queste preoccupazioni, gli adolescenti sostengono fortemente misure di protezione per l’IA generativa. Quasi tre su quattro (74%) sostengono le salvaguardie sulla privacy e la trasparenza, mentre il 73% ritiene che i contenuti generati dall’IA dovrebbero essere etichettati o con un watermark. Inoltre, il 61% desidera che i creatori di contenuti vengano compensati quando i modelli di IA utilizzano il loro lavoro per l’addestramento.
CNN nota che la sfiducia degli adolescenti verso le grandi aziende tecnologiche riflette una più ampia insoddisfazione nei confronti delle principali aziende tecnologiche statunitensi. Anche gli adulti americani si trovano a fronteggiare crescenti livelli di contenuti fuorvianti o falsi, aggravati dall’indebolimento delle salvaguardie digitali.
Mentre l’IA generativa ridefinisce il panorama digitale, affrontare la disinformazione e ripristinare la fiducia richiede la collaborazione tra aziende tecnologiche, educatori, responsabili delle politiche e gli stessi adolescenti.
Rafforzare l’alfabetizzazione digitale e implementare chiari standard di governance dell’IA sarà essenziale per garantire un ambiente online più trasparente e affidabile.
Lascia un commento
Annulla