Opinione: Meta ha eliminato il suo programma di verifica dei fatti – Stiamo andando verso l’anarchia della libertà di parola?
Comprendere la logica dietro la decisione di Meta di eliminare il suo programma di fact-checking potrebbe offrire preziose intuizioni sul futuro di Instagram, Threads e Facebook, in particolare considerando X come riferimento e la direzione strategica di Zuckerberg
La scorsa settimana, Mark Zuckerberg ha annunciato la fine del programma di fact-checking di Meta per Facebook, Instagram e Threads. La notizia è rapidamente diventata virale e le persone hanno iniziato a chiedersi quali fossero le ragioni e le conseguenze di questa importante decisione.
Questa importante mossa ha sollevato serie preoccupazioni su come gli utenti dovrebbero reagire e su come la disinformazione potrebbe diffondersi a livello globale.
Molti utenti hanno iniziato a cancellare i loro account sui social media sulle piattaforme di Meta, rifugiandosi in altre reti come Bluesky—che presto lancerà la sua versione di Instagram—o Mastodon, e temendo che ci stiamo dirigendo verso un ambiente digitale caotico.
Meta sta riflettendo molte delle strategie di X, precedentemente Twitter. Elon Musk ha sciolto il Consiglio di Fiducia e Sicurezza della piattaforma nel dicembre 2022, solo pochi mesi dopo aver acquistato la piattaforma di social media. Invece, ha sviluppato il programma Community Notes per fare affidamento sugli utenti come verificatori di fatti, e Zuckerberg farà lo stesso.
Ma, analizziamolo prima:
Perché Meta sta facendo questo?
Beh, ci sono molte teorie oltre a quella ufficiale: “libertà di espressione”. Meta ha dichiarato che i sistemi per la gestione dei contenuti non funzionavano.
“Nonostante le buone intenzioni che hanno caratterizzato molti di questi sforzi, nel tempo si sono ampliati fino al punto in cui stiamo commettendo troppi errori, frustrando i nostri utenti e troppo spesso ostacolando la libera espressione che ci siamo proposti di favorire”, afferma l’annuncio ufficiale.
Sì, il Sistema di Moderazione di Meta Era Già Roto
Molti di noi, in particolare i giornalisti, sono preoccupati per la decisione di Zuckerberg sulla “libertà di parola”, che potrebbe consentire a più account con intenzioni malevole di diffondere notizie false, deepfake e contenuti manipolatori. Il servizio di moderazione di Meta era già un problema significativo.
Meta ha faticato a proteggere gli utenti da contenuti dannosi, e molti utenti e account sono stati ingiustamente bannati sui social media. Anche noi di Wizcase abbiamo sperimentato questa situazione fastidiosa.
I sistemi di sicurezza e moderazione dell’azienda erano tutt’altro che perfetti. Ma, era davvero la migliore opzione farla sparire? Alcuni di noi pensano che questa non fosse la migliore soluzione, o addirittura una soluzione.
Tuttavia, Zuckerberg ha comunque deciso di incolpare terze parti.
I verificatori di fatti sono il problema?
Zuckerberg ha accusato i servizi di terze parti come il principale problema per la scarsa moderazione dei contenuti e la censura. Ha sostenuto che i “verificatori di fatti sono stati troppo politicamente di parte” e hanno “distrutto più fiducia di quella che hanno creato”, ma i moderatori e i verificatori di fatti non sono d’accordo.
Ho contattato un ex moderatore di contenuti che ha lavorato per tre anni per una società di moderazione di contenuti di terze parti per Twitter—ora X—, che ha preferito mantenere l’anonimato.
La mia fonte ha considerato che questo non aveva senso, dal momento che seguivano sempre le linee guida fornite dal cliente, in questo caso, Twitter. “Per me, è difficile credere che i verificatori dei fatti fossero ‘troppo politicizzati'”, ha spiegato, via email, assicurando che i moderatori di contenuti seguono semplicemente le regole. “Non avevamo l’autorità per intervenire sugli account con molti follower o sugli account di persone politiche o famose.”
Neil Brown, il presidente del Poynter Institute, uno dei partner di Meta per la verifica dei fatti, ha detto al New York Times che anche l’accusa di Zuckerberg era falsa. Secondo Brown, il loro team ha utilizzato gli strumenti di Meta per effettuare verifiche dei fatti ed era Meta a decidere come rispondere a questo.
Lori Robertson, redattrice capo di FactCheck.org, un altro partner di Meta dal 2016, ha dichiarato che la loro organizzazione ha sempre mantenuto standard trasparenti e che verificano i contenuti provenienti da entrambi i partiti, democratici e repubblicani.
“Il nostro lavoro non riguarda la censura”, ha scritto. “Forniamo informazioni accurate per aiutare gli utenti dei social media mentre navigano nei loro feed di notizie. Non abbiamo, e non potremmo, rimuovere contenuti. Qualsiasi decisione in merito spetta a Meta.”
Una decisione commerciale
Molti considerano la decisione di Zuckerberg una scelta profondamente personale. Un’opportunità per liberarsi della responsabilità e delle conseguenze di mantenere un ambiente sicuro sulle sue piattaforme di social media, accontentando il prossimo presidente Donald Trump ed evitando la prigione—Trump aveva precedentemente minacciato Zuckerberg di prigione a vita—, mentre, ovviamente, mantiene a galla la sua attività.
Ci sono addirittura teorie che sostengono che la mossa di Zuckerberg fosse un modo per garantire che TikTok venisse bandito e gli utenti preferissero Instagram Reels, dando a Meta più potere nell’ambito dei social media.
“Penso che le persone spesso trascurino il fatto che le piattaforme di social media sono aziende e, come tali, prendono decisioni a loro vantaggio”, ha detto l’ex moderatore di contenuti che ho intervistato. E molti la vedono anche in questo modo.
Dopo aver visto la mossa di Zuckerberg e il comportamento di Musk, Eugen Rochko, CEO di Mastodon, ha annunciato di voler trasferire la proprietà e gli asset a un’organizzazione europea senza scopo di lucro nel tentativo di mantenere la sua piattaforma “libera dal controllo di un singolo individuo ricco”.
Stiamo entrando in un’era di “Energia Maschile”, Lavoro Gratuito e Disinformazione
Tutti i segni indicano che il 2025 sarà ancora più difficile quando si tratta di distinguere la verità, i fatti e le immagini reali dai contenuti generati dall’IA. Per peggiorare le cose, le più grandi piattaforme di social media al mondo non solo stanno eliminando i verificatori di fatti e i moderatori di contenuti, ma stanno anche condividendo una forte posizione politica che influenzerà direttamente la dinamica delle loro piattaforme.
Contenuti Più Aggressivi e Politici
In quel processo di allineamento con i principi di Trump, Zuckerberg ha rapidamente iniziato a condividere pubblicamente convinzioni simili a quelle del movimento MAGA di Trump.
Nel podcast di Joe Rogan, il CEO di Meta ha detto che l’azienda potrebbe beneficiare di più “energia maschile”. E ha aggiunto: “Penso che avere una cultura che, diciamo, celebra un po’ di più l’aggressività abbia i suoi meriti che sono davvero positivi”, ha detto.
Anche le piattaforme di Zuckerberg stanno cambiando rapidamente. Adam Mosseri, responsabile di Instagram e Threads, ha confermato pochi giorni fa che vedremo più contenuti politici e pubblicità su Threads.
“A partire da questa settimana negli Stati Uniti, e nel corso della prossima settimana nel resto del mondo, stiamo per aggiungere contenuti politici alle raccomandazioni su Threads e modificheremo il controllo dei contenuti politici in tre opzioni: meno, standard, l’opzione predefinita, e più.”
Preparatevi per dibattiti politici più intensi sui social media quest’anno!
Maggiori Responsabilità Non Retribuite Per Gli Utenti
Il sistema delle Note della Comunità sembra essere una soluzione per le grandi aziende di social media per diluire la responsabilità dalle assurdità che le persone pubblicano online. Gli utenti che partecipano al programma – praticamente chiunque abbia più di qualche mese sulla piattaforma può aderire – hanno la possibilità di aggiungere contesto a post potenzialmente fuorvianti per aiutare le persone a comprendere meglio il post e la sua intenzione.
Tuttavia, almeno il programma di X sembra essere un sistema di volontariato e coloro che partecipano e interagiscono non ricevono alcun compenso finanziario per il loro lavoro. Meta non ha rivelato ulteriori dettagli del loro programma, ma non sembra che sarà diverso in questo senso.
È un inganno i social media? Gli utenti passano ore a creare video, storie e commenti, tenendo attivi gli algoritmi e alimentando la formazione dell’IA. Ora stanno anche aggiungendo contesto e aiutando le piattaforme a costruire un ambiente più salubre – gratuitamente, almeno per la maggior parte di coloro che non traggono un beneficio economico da un modello di business.
Questa soluzione è anche solo un cerotto che copre una ferita profonda. Alla fine, è “l’algoritmo” che prende le decisioni, e organizzazioni come MediaWise del Poynter Institute hanno affermato che in molti casi meno del 10% delle note vengono effettivamente pubblicate.
Una Ricetta Per Più Disinformazione
Ho assistito personalmente a un cambiamento drastico del mio feed X negli ultimi anni. Amici e persone che seguivo hanno lasciato la piattaforma, facendo spazio a assurdi dibattiti “uomini contro donne” e a video virali messi in scena appositamente per provocare rabbia e generare sempre più condivisioni furiose.
Nel frattempo, i contenuti politici hanno preso sempre più il sopravvento, quasi trascinandomi in ogni polemica e idea polarizzante.
Senza verificatori di fatti e moderatori di contenuti, si prevede solo un picco di opinioni polarizzate, deepfake, fake news e contenuti dannosi sulle piattaforme di Meta.
La strategia delle Note della Comunità non sarà sufficiente a stare al passo con la moderazione dei contenuti e, in ultima analisi, le decisioni su ciò che accade sulla piattaforma dipenderanno sempre dall'”algoritmo”, regolato secondo le preferenze del proprietario della piattaforma.
È incerto cosa accadrà in futuro – persino i risultati di X sono ancora in fase di valutazione – ma come utenti dei social media faremo parte di un esperimento sociale globale di grande impatto.
Il futuro rimane incerto – persino le conseguenze delle modifiche di X stanno ancora emergendo – ma una cosa è chiara: come utenti dei social media, siamo tutti partecipanti a un esperimento globale profondo e di ampia portata.
Lascia un commento
Annulla