La decisione di Meta di eliminare i controlli sui contenuti che circolano sui social non è soltanto un modo per inchinarsi a Trump e Musk, ma anche di liberarsi di programmi costosi, pieni di contraddizioni e che, nonostante fossero il male minore, non hanno mai davvero soddisfatto nessuno
E pensare che, nemmeno due anni fa, Mark Zuckerberg voleva sfidare Elon Musk in un match di arti marziali mentre, contemporaneamente, mirava ad approfittare delle difficoltà di X – che dall’acquisto di Musk si è trasformato in un megafono dell’estrema destra – dando vita a Threads, un clone di Twitter che avrebbe dovuto rappresentarne la versione “politicamente corretta”.
Per marcare ancora di più la differenza rispetto all’incendiario social rivale, Zuckerberg aveva annunciato che su Threads – e anche su Instagram – i contenuti di natura politica (estremi o moderati che fossero) avrebbero ottenuto sempre meno visibilità. Una manovra pilatesca che ha permesso a Meta di fare piazza pulita di una tipologia di contenuti che, negli anni, ha generato una marea di polemiche (basti pensare al sospetto oscuramento di tutti i contenuti pro-palestinesi) e ha mostrato l’impossibilità di moderare con efficacia e in maniera neutrale miliardi di post di natura politica, spesso sul confine della legittimità o facilmente fraintendibili (soprattutto quando provenienti da nazioni lontane dall’Occidente).
Nel frattempo, però, si è verificato ciò che, fino a qualche tempo fa, nessuno avrebbe potuto immaginare: il ritorno alla Casa Bianca di Donald Trump insieme al nuovo braccio destro Elon Musk. Zuckerberg si è improvvisamente trovato alle prese con uno scenario da incubo: i due suoi più acerrimi nemici (Trump lo aveva accusato di aver complottato contro di lui durante le elezioni, mentre di Musk abbiamo già detto) in procinto di diventare arbitri del suo destino.
E così, il fondatore di Meta ha deciso di indossare – insieme alle collane d’oro di cui ultimamente fa sfoggio – il cappellino MAGA, di convertirsi da un giorno all’altro alla (malintesa) visione muskiana della libertà d’espressione e di annunciare il ritorno dei contenuti politici su Threads e Instagram meno di un anno dopo averne annunciato la rimozione. Soprattutto, Zuckerberg ha contestualmente comunicato che eliminerà le squadre di fact-checkers e ridurrà dimensioni e compiti delle squadre di moderazione (spostandole simbolicamente dalla progressista California al conservatore Texas).
Le note della comunità
Tutto ciò sarà sostituito con le “note della comunità” già in vigore su X (ed esplicitamente citate da Zuckerberg come esempio), in cui sono gli stessi utenti a segnalare quali contenuti sono considerati problematici: una soluzione teoricamente condivisibile, ma che ha già dimostrato di garantire soltanto conflitti e caos.
È una svolta – che per il momento si applica soltanto agli Stati Uniti e che in Unione europea sarà difficile da applicare a causa del Digital Services Act – che può apparire repentina, ma che Zuckerberg sognava da anni. Prima di tutto, il fondatore di Meta non ha mai desiderato ripulire le sue piattaforme da contenuti estremisti, violenti o complottisti: l’ha dovuto fare in seguito a innumerevoli scandali e accuse (tra cui quello di aver fomentato, tramite Facebook, gli scontri etnici in Sri Lanka e in Myanmar del 2017, che hanno causato decine di vittime) e alle conseguenti pressioni politiche e mediatiche ricevute (come ammesso da lui stesso).
In secondo luogo, queste novità erano già state parzialmente introdotte: nel corso del 2023, Meta aveva infatti licenziato oltre 20mila persone, indebolendo proprio i dipartimenti che si occupano della moderazione dei contenuti. Zuckerberg aveva inoltre ammesso in un’intervista di aver seguito, sotto questo fronte, l’esempio di Elon Musk. «Per i democratici non cancelliamo abbastanza contenuti, per i repubblicani ne cancelliamo troppi. Dopo tutto quello che abbiamo fatto ci gridano comunque sempre addosso. Non ne vale più la pena», aveva raccontato l’ex responsabile della public policy di Facebook Katie Harbath, dando voce a una diffusa frustrazione e giustificando il cambio di direzione.
Le altre ragioni
Al di là della necessità di accodarsi al nuovo clima politico (abbandonando quel progressismo di facciata che è stata per decenni la posizione di default dei colossi della Silicon Valley), ci sono quindi parecchie altre ragioni che hanno portato Zuckerberg ad annunciare ufficialmente una svolta in realtà già cominciata e accarezzata da parecchio tempo.
Partiamo dalle più comprensibili: la moderazione dei contenuti e il fact-checking funzionano male e in alcuni casi sono addirittura controproducenti. I sistemi automatici utilizzati per segnalare i contenuti non sono in grado di distinguere un nudo d’arte da un nudo qualunque e nemmeno di riconoscere l’ironia (scambiando regolarmente una battuta sul razzismo per una battuta razzista), i moderatori umani hanno (comprensibilmente) mille difficoltà a districarsi nel labirinto della libertà d’espressione, mentre il fact-checking da parte di professionisti si è più volte rivelato inutile (l’etichetta che bollava come “disinformazione” determinati contenuti veniva considerata dai complottisti una prova dell’ingerenza dei soliti “poteri forti” sulla libertà d’espressione). Più in generale, l’idea che delle società private avessero il diritto di decidere cosa si può dire e cosa no non è mai, semplicemente, piaciuta a nessuno.
Nonostante tutto ciò, negli ultimi anni il lavoro dei moderatori e dei fact-checkers aveva, tra mille controversie, almeno limitato la circolazione di disinformazione e di contenuti illegali o palesemente complottisti su Facebook (tra cui quelli No Vax durante il Covid o quelli legati alla setta trumpiana QAnon), migliorandone il clima e arginando anche l’hate speech e le persecuzioni online a danno soprattutto delle minoranze.
Adesso, il pericolo è che Facebook (come già avvenuto su X e come potrebbe accadere anche su YouTube, se Google deciderà di accodarsi) torni a essere il trampolino delle più pericolose teorie del complotto e il luogo in cui troll e violenti si organizzano per molestare e silenziare le voci a loro sgradite.
Per Zuckerberg, alla luce del nuovo clima politico, tutto ciò non rappresenta più un problema. Anzi, rappresenta la perfetta opportunità per spalancare nuovamente le porte a quei contenuti polarizzanti ed estremi che più di ogni altro generano engagement (like, commenti, condivisioni) e che sono quindi più monetizzabili.
Ancora più importante è che Zuckerberg può ridurre drasticamente le enormi spese sostenute per sviluppare gli algoritmi di intelligenza artificiale che dovrebbero identificare i contenuti dannosi, per pagare decine di migliaia di moderatori sparsi in tutto il globo e per mantenere squadre di fact-checkers professionisti (che, inutile negarlo, era anche un modo per finanziare il giornalismo tradizionale e limitarne l’ostilità).
Ma la ragione principale, quasi esistenziale e passata sotto traccia, è in realtà un’altra. La nuova direzione intrapresa va infatti perfettamente incontro ai desiderata di Brendan Carr, la figura scelta da Donald Trump per guidare la FCC (Commissione federale per le comunicazioni) e che dopo le elezioni aveva inviato a Meta, Apple, Google e Microsoft una lettera minatoria in cui li accusava di aver ceduto alla censura del politicamente corretto, chiedendo spiegazioni relativamente all’utilizzo «di ogni servizio di fact-checking», considerati dei programmi “orwelliani”.
«Avete preso parte a un cartello della censura che include non solo le aziende tecnologiche e di social media, ma anche organizzazioni pubblicitarie, di marketing e del cosiddetto fact-checking». Dopo un preambolo già abbastanza inquietante, Carr è passato direttamente alle minacce: «Come sapete, la preziosa protezione dalla responsabilità di cui gode Big Tech, la Sezione 230 (che esclude le piattaforme dalla responsabilità per i contenuti su esse pubblicati, ndr), è codificata nel Communications Act, che la FCC amministra. In questo contesto, la Sezione 230 conferisce benefici alle aziende Big Tech solo quando operano, per usare le parole dello statuto, ‘in buona fede’».
Per le ragioni che abbiamo visto, e alla luce del nuovo clima politico, è del tutto possibile che Meta si sarebbe comunque liberata dei programmi di fact-checking. Ma questo ha poca importanza: eliminare gli sgraditi controllori e moderatori, per Zuckerberg, è come prendere due piccioni con una fava: permette di risparmiare problemi (e denaro) e contemporaneamente di farsi amiche due persone che, altrimenti, potrebbero per lui diventare estremamente pericolose.
© Riproduzione riservata