Opinione: Il Sistema di Regolamentazione della Sicurezza di Meta è in Rovina?
Quasi ogni creatore di contenuti o gestore attivo di social media si è recentemente trovato di fronte allo stesso problema quando posta su Facebook o Instagram: un post o un account viene bannato, probabilmente per i motivi sbagliati.
Questa situazione fastidiosa è solo un pezzo del puzzle di un problema complesso con il sistema di regolamentazione dei contenuti di Meta. Sebbene Meta sembri avere molte misure di controllo, a volte assurde, la radice del problema non sembra essere risolta.
Negli ultimi mesi, Meta ha introdotto numerosi aggiornamenti alle sue linee guida sui contenuti e ha implementato regole più severe mirate a costruire un ambiente online più salutare. Una delle conseguenze è stata che molte aziende, editori e account utenti sono stati bannati, portando a centinaia di reclami su forum, piattaforme di chat e canali di social media. Diverse case editrici di notizie e marchi sono stati rimossi dalle piattaforme di Meta in alcune regioni quest’anno, sollevando preoccupazioni tra proprietari di aziende, giornalisti e creatori di contenuti.
Nonostante i recenti aggiornamenti di Meta, che danno l’impressione di una moderazione più rigorosa e di un controllo più attento dei contenuti condivisi sulle sue piattaforme, i post relativi a droghe, suicidio, molestie sessuali, bullismo, discorsi d’odio, abusi e fake news continuano a sfuggire agli algoritmi, raggiungendo comunità vulnerabili.
Non posso fare a meno di chiedermi: cosa sta succedendo al sistema di regolamentazione sulla sicurezza di Meta?
Account Bannati Per Motivi Errati
Tutto inizia con un messaggio simile: “Il tuo account Meta non rispetta le nostre regole”. Molti utenti di Facebook e Instagram sono stati bannati o temporaneamente espulsi dai loro account “per non conformità” alle regole di Meta, anche quando ritengono di averle rispettate.
È una situazione che abbiamo vissuto in prima persona su Wizcase. Il sistema di Meta ha segnalato come inappropriati degli elementi rilevanti, obbligando il community manager a intraprendere un processo di appello e a fornire documenti di identità rilasciati dal governo.
Centinaia di utenti, community manager e account manager si sono lamentati su piattaforme come Reddit e su altri forum, chat e canali di social media riguardo a situazioni simili. In più di un caso sfortunato, gli utenti hanno perso i loro account e non possono fare nulla per rimediarvi, e non ricevono nemmeno una spiegazione.
“Il team di assistenza di Facebook è pessimo. Non importa quante volte gli diciamo tutto o gli spieghiamo tutto, semplicemente non capiscono”, ha detto un utente su Reddit in una discussione riguardante gli account bannati. “Una cosa che posso dire subito è che non riavrà il tuo account a meno che non stessi spendendo centinaia di migliaia al giorno”, ha aggiunto un altro.
Questo problema, sebbene possa sembrare che colpisca solo i creatori di contenuti, è solo una piccola parte di una sfida più grande.
Meta Contro le Cause Legali
Da anni, Meta sta investendo nella moderazione dei contenuti e in nuove strategie per lavorare su una piattaforma più sicura per gli utenti e per proteggersi da ulteriori cause legali – la più recente proviene dai moderatori di contenuti kenioti, che attualmente richiedono 1,6 miliardi di dollari come risarcimento per i massicci licenziamenti e per compensare il materiale angosciante a cui sono stati esposti durante l’analisi dei contenuti per Facebook.
La società tecnologica si affida a terze parti per aiutare con le normative sui contenuti e sviluppa strumenti per riconoscere quando un contenuto viola le regole della piattaforma. Tuttavia, queste misure non sono state sufficienti e la situazione è sfuggita di mano, soprattutto tra gli utenti minorenni.
Nel 2021, Meta ha introdotto nuove funzioni di protezione, ma ciò non ha impedito al Senato di includere Instagram e Facebook tra le piattaforme considerate dannose per i bambini l’anno scorso. Il colosso tecnologico ha affrontato una causa congiunta presentata da 33 stati negli Stati Uniti per il suo algoritmo manipolativo e dannoso.
Da gennaio, Meta ha condiviso aggiornamenti su nuovi strumenti di controllo della sicurezza. A giugno, l’azienda ha migliorato il suo strumento anti-molestie per proteggere gli adolescenti su Instagram con una funzione predefinita “Amici stretti” con una funzione “Limiti” in modo che solo veri amici e familiari potessero interagire con i contenuti pubblicati dai giovani utenti.
Solo pochi giorni fa, l’azienda ha annunciato i nuovi Account per Adolescenti per proteggere i teenager e “rassicurare i genitori che i ragazzi stanno avendo esperienze sicure”. Sarà sufficiente per proteggere i bambini? E gli utenti più anziani?
Un Ecosistema Insicuro
Facebook, Instagram e WhatsApp sono ancora infestati da contenuti dannosi che colpiscono gli utenti, di tutte le età, professioni e gruppi sociali, e difficilmente il problema sarà risolto nel prossimo futuro.
Uno studio condotto dal Center for Countering Digital Hate (CCDH) ha analizzato oltre 500 milioni di commenti su Instagram fatti dagli account di 10 donne politiche negli Stati Uniti e ha rivelato che Meta non è riuscita a rimuovere o a prendere provvedimenti sul 93% di questi commenti.
Le molteplici cause legali contro Meta hanno letteralmente dimostrato che l’azienda fatica a proteggere gli utenti da contenuti dannosi, e ha anche danneggiato creatori, editori e marchi con filtri ingiusti e strumenti di sicurezza mal implementati.
Certo, questo è un problema complesso e profondo che dovrebbe essere affrontato in profondità, ma forse è il momento di accettare che Meta non è stata in grado di gestire questa situazione. Le soluzioni tampone non risolveranno un sistema che è fondamentalmente rotto. Ora la vera domanda è: Quanti altri utenti devono essere banditi ingiustamente, ingannati o manipolati prima che avvenga un vero cambiamento?
Lascia un commento
Annulla