- La Commissione Ue ha chiarito che la sospensione delle attività di Sputnik e Russia Today riguarda non solo i canali tv e i video online, ma anche i motori di ricerca attraverso cui se ne abilita la trasmissione e i post degli utenti che ne diffondono o riportano i contenuti.
- L’Ue ha chiesto ai social per contrastare le fake news riguardanti la guerra. Ci si chiede fino a che punto può espandersi il potere di piattaforme cui viene attribuito il compito di bilanciare tra libera circolazione delle informazioni e verifica della loro esattezza.
- Le aziende tecnologiche agiscono secondo meccanismi poco trasparenti. Su ciò interverrà in Ue Digital Services Act, il regolamento europeo sui servizi digitali che definirà competenze e responsabilità dei prestatori di servizi online.
«Le battaglie avviate dalla Russia nell’attuale conflitto infuriano non solo sul terreno, ma anche su internet», hanno affermato i ministri delle telecomunicazioni dell’Unione europea (Ue) lo scorso 8 marzo, in una riunione con i rappresentanti delle principali piattaforme online. La frase spiega il motivo per cui negli ultimi giorni vi sono stati una serie di interventi su media e web.
Il 2 marzo scorso, il Consiglio dell’Unione europea ha deciso, tra le misure restrittive a seguito dell’aggressione militare della Russia all’Ucraina, la «sospensione delle attività di radiodiffusione di Sputnik e Rt/Russia Today» nell’Ue, definiti da Josep Borrell, alto rappresentante dell’Ue per gli affari esteri e la politica di sicurezza, come «armi nell’ecosistema del Cremlino».
Nel comunicato del Consiglio si legge che «da tempo la Federazione russa attua una sistematica campagna internazionale di disinformazione, manipolazione delle informazioni e distorsione dei fatti», prendendo di mira - tra gli altri - «partiti politici europei» nonché «il funzionamento delle istituzioni democratiche nell’Ue e nei suoi stati membri».
E nella relazione del parlamento Ue dello scorso 8 marzo, in tema di ingerenze straniere nei processi democratici nell’Unione e di disinformazione, si legge che «negli ultimi dieci anni la Russia, la Cina e altri regimi autoritari hanno distribuito più di 300 milioni di dollari in 33 paesi per interferire con i processi democratici più di cento volte e la metà dei casi riguarda azioni della Russia in Europa». È servita una guerra per determinare la reazione europea a una situazione già rilevata nei fatti.
L’intervento dell’Ue non riguarda solo canali tv e video online dei due media. La Commissione europea ha, infatti, chiarito che il provvedimento include anche i motori di ricerca, in quanto tali da «abilitare, facilitare o altrimenti contribuire alla trasmissione» di RT e Sputnik; e che le piattaforme digitali devono rimuovere i post degli utenti che diffondono o riportano contenuti riconducibili ai due media.
Secondo la Commissione, la libertà di espressione implica «il diritto di ricevere informazioni obiettive sugli eventi attuali» e può essere limitata a tutela di interessi pubblici «in modo proporzionato».
Le richieste della Commissione derogano alla direttiva sul commercio elettronico, che vieta di imporre un obbligo di monitoraggio da parte di chi fornisce servizi internet, secondo il principio di neutralità. Ma – dice la Commissione Ue – ciò è «giustificato sulla base della situazione e del suo carattere temporaneo».
Le richieste a Big tech
Nel corso della citata riunione dell’8 marzo, i ministri Ue delle telecomunicazioni hanno chiesto alle aziende digitali di garantire che la loro capacità di contrasto alla disinformazione sia adeguata, soprattutto in termini di «verifica dei fatti» per contrastare la propaganda russa.
Va detto che l’impegno dell’Ue nella lotta alle fake news prosegue da anni. Nell’aprile 2018 la Commissione ha dedicato una comunicazione alla disinformazione – di cui social media, motori di ricerca ecc. possono essere «potenti camere di risonanza» – a seguito della quale, nel settembre 2018, alcuni grandi operatori del settore si sono impegnati a rispettare un Codice di condotta sulla disinformazione.
Oggi l’Ue chiede alle piattaforme di fare di più, potenziando l’attività di controllo per «rafforzare il monitoraggio dei contenuti, soprattutto in russo e lingue ucraine», ed evitare la «diffusione di disinformazione e contenuti manipolativi». Pure con questo intervento l’Ue tende a superare il principio di neutralità di Big tech, rendendoli attori politico-mediatici.
Interventi autonomi
Big tech hanno anche adottato decisioni in autonomia. Alcune hanno deciso di rimuovere app dei media statali russi o hanno chiuso attività in Russia, la quale a propria volta ha vietato l’accesso ad alcune piattaforme nel Paese. Inoltre, come riportato da Reuters, Meta ha consentito agli utenti di Facebook e Instagram in Ucraina di usare un linguaggio d’odio contro russi e soldati russi, nel contesto della guerra, nonché di invocare la morte di Vladimir Putin o di Alexander Lukashenko, in deroga alle regole d’uso della piattaforma che vietano discorsi violenti.
Va ricordato che nel 2016 la Commissione Ue e Big tech avevano sottoscritto un Codice di condotta per contrastare l’illecito incitamento all’odio online, impegnandosi a garantire il divieto dell’istigazione alla violenza e all’odio. Ora si è evidentemente ritenuto di andare oltre, consentendo una risposta via social alla violenza della guerra.
Il potere di Big tech
La Federazione europea dei giornalisti ha definito un errore combattere la disinformazione con la censura da parte dell’Ue. Ma l'informazione «è il combustibile della democrazia» - ha detto Borrell - e «se l’informazione è di cattiva qualità, anche la democrazia è di cattiva qualità».
L’Ue ha agito nel rispetto di quanto previsto dalla sua Carta dei diritti fondamentali con riguardo alla libertà di espressione e d’informazione (articolo 11). Tuttavia, al di là della riconosciuta legittimità – anche in termini di proporzionalità e temporaneità - dell’attuale decisione di vietare i due media russi, nonché di chiedere l’intervento delle aziende digitali sui relativi contenuti, sorgono alcune domande.
Fino a che punto può espandersi il potere di piattaforme online cui un’autorità sovranazionale attribuisce il compito di bilanciare tra libera circolazione delle informazioni e verifica della loro esattezza, nell’ambito della libertà di manifestazione del pensiero degli utenti?
Perché se è vero che la diffusione di informazioni corrette garantisce la democrazia, quest’ultima si fonda anche sulla libertà di espressione. Conferire alle aziende tecnologiche il potere di stabilire i limiti di questa libertà può rappresentare una delega di funzioni statali.
E poi ci sono le iniziative autonome di tali aziende. Da un lato, come ha scritto Giovanna Faggionato, Zuckerberg decide «chi merita di essere odiato dal mondo e chi no». Dall’altro lato, come spiegato su queste pagine da Ernesto Belisario, i social «si comportano sempre più come veri e propri stati»: hanno dichiarato una “social war” alla Russia, sostenendo l’Ucraina; hanno imposto - a modo loro - sanzioni, come hanno fatto stati sovrani; e, se è vero che in questa occasione «si sono schierati dalla parte giusta», comunque «decidono secondo meccanismi e logiche che sfuggono alla nostra conoscenza».
Nell’Unione europea le criticità esposte saranno probabilmente superate, o almeno attenuate, dal Digital Services Act, il regolamento Ue sui servizi digitali che definirà competenze e responsabilità per i prestatori di servizi online e assoggetterà, in particolare, le piattaforme di maggiori dimensioni a particolari obblighi per ridurre i rischi di diffusione di contenuti illegali e di disinformazione. Ma, al momento, i dubbi restano.
© Riproduzione riservata