- Il Tribunale di Roma ha riconosciuto a Facebook il diritto a rimuovere la pagina dell’associazione Casapound perché contenente, tra l’altro, «hate speech basati sulla razza o etnia», «simboli che rappresentano/elogiano un’organizzazione che incita all’odio».
- I contenuti di tale pagina «non solo violano le condizioni contrattuali, ma sono illeciti» in base a un’ampia serie di norme. Facebook non solo poteva rimuoverli, ma aveva pure «il dovere legale» di farlo, «rischiando altrimenti di incorrere in responsabilità».
- La libertà di manifestazione del pensiero, anche sui social network, incontra limiti nel rispetto della dignità umana e nel divieto di ogni discriminazione, «a garanzia dei diritti inviolabili spettanti ad ogni persona».
Dopo tre anni, è stato messo un punto fermo alla controversia tra Casapound e Facebook. Con una sentenza del 5 dicembre scorso (n. 17909), il Tribunale di Roma ha riconosciuto a Meta Platforms Ireland Ltd., società cui fa capo Facebook, il diritto a rimuovere la pagina dell’associazione politica, revocando così l’ordinanza cautelare che, nel 2019, aveva deciso l’opposto. La pronuncia è importante perché, da un lato, delinea i limiti alla libertà di espressione sui social network, dall’altro lato, definisce i poteri di intervento di questi ultimi quando tali limiti siano superati.
I fatti
Nel dicembre del 2019, il Tribunale di Roma (ordinanza n. 59264/2019) aveva accolto il ricorso presentato da Casapound a seguito della disattivazione da parte di Facebook della sua pagina ufficiale, e non solo, avvenuta nel settembre 2019. Secondo il gestore della piattaforma, l’organizzazione aveva violato le regole d’uso sul divieto di incitamento all’odio.
Ma il giudice aveva ordinato di riattivare la pagina, reputando che, per «il rilievo preminente assunto dal servizio di Facebook (o di altri social network ad esso collegati) con riferimento all’attuazione di principi cardine essenziali dell’ordinamento come quello del pluralismo dei partiti politici», un soggetto politico che viene estromesso da Facebook «è di fatto escluso (o fortemente limitato) dal dibattito politico italiano».
Facebook aveva fatto ricorso contro la decisione, divulgando le motivazioni in una nota ufficiale: «Non vogliamo che le persone o i gruppi che diffondono odio o attaccano gli altri sulla base di chi sono utilizzino i nostri servizi» - aveva chiarito la società – e «per questo motivo abbiamo una policy (…) che vieta a coloro che sono impegnati in “odio organizzato” di utilizzare i nostri servizi», che si tratti di «partiti politici e candidati, così come tutti gli individui e le organizzazioni presenti su Facebook e Instagram».
«Ci sono prove concrete» - proseguiva la nota - «che Casapound sia stata impegnata in odio organizzato e che abbia ripetutamente violato le nostre regole. Per questo motivo abbiamo presentato reclamo contro l’ordinanza del Tribunale di Roma».
Il quadro giuridico
La pronuncia del Tribunale opera, innanzitutto, un’ampia ed esaustiva ricognizione della normativa internazionale e nazionale in tema di discriminazione e delitti di odio, con riferimento ai limiti alla libertà di espressione. Il diritto internazionale «non offre alcuna protezione a messaggi di incitamento all’odio o alla discriminazione» - affermano i giudici - «e richiede interventi volti a prevenire e ad arginare la diffusione di detti messaggi sul presupposto che essi costituiscano un pericolo per la democrazia, ancora più pregnante quando la diffusione avviene attraverso i “social media”», compromettendo diritti «come la dignità della persona, che implica il divieto di ogni discriminazione».
Quanto alla legislazione nazionale, essa si fonda sul presupposto che i discorsi d’odio e di discriminazione «non rientrino nell’ambito di tutela della libertà di manifestazione del pensiero, la quale non può spingersi sino a negare i principi fondamentali e inviolabili del nostro ordinamento», e quindi «il valore stesso della persona» così come garantito dagli articoli 2 e 3 della Costituzione.
«Dal complesso quadro di fonti normative sopra delineato» - sostengono i giudici - «emerge con chiarezza che tra i limiti alla libertà di manifestazione del pensiero, nel bilanciamento con altri diritti fondamentali della persona, assume un particolare rilievo il rispetto della dignità umana ed il divieto di ogni discriminazione, a garanzia dei diritti inviolabili».
Sulla base di questo quadro giuridico, diverse disposizioni richiedono al gestore di piattaforme social di intervenire su contenuti che violino tali diritti. Innanzitutto, la Direttiva 2000/31/CE sul commercio elettronico (recepita con d.lgs. n. 70/2003), se pure esenta gli “internet service provider” da obblighi di sorveglianza sui contenuti degli utenti, tuttavia impone ai provider stessi di agire immediatamente non appena siano messi al corrente dell’illegalità di informazioni pubblicate sulle rispettive piattaforme, rimuovendo le informazioni stesse o disabilitandone l’accesso. Sullo stesso solco – rileva il Tribunale di Roma - si muove il nuovo Regolamento europeo sui servizi digitali (Digital Service Act): esso «conferma la strada intrapresa dall’Unione Europea in ordine alle iniziative per disincentivare anche la diffusione di discorsi d’odio, soprattutto attraverso la rete (oltre che a prevedere un controllo pubblico più stringente sulle piattaforme)».
Alle norme citate, deve aggiungersi il “Codice di condotta per contrastare l’illecito incitamento all’odio online”, sottoscritto nel maggio 2016 in sede UE da alcune tra le massime società̀ dell’informatica, tra cui Facebook. Per garantire che internet rimanga un luogo di espressione libero e democratico, le società si sono impegnate – tra le altre cose – a stabilire «regole o orientamenti per la comunità degli utenti volte a precisare che sono vietate la promozione dell’istigazione alla violenza e a comportamenti improntati all’odio». Gli impegni contenuti nel Codice, rafforzati qualche mese fa, prevedono anche la rimozione, da parte dei firmatari, di contenuti falsi o fuorvianti, di hate speech ecc..
Le regole contrattuali
Ma non sono solo le norme giuridiche e le regole del Codice a richiedere un intervento del gestore di un social network. Le condizioni contrattuali alle quali la parte aderisce quando chiede di iscriversi a Facebook attribuiscono a Meta Platforms Ireland il diritto di rimuovere contenuti che violino tali condizioni e di interrompere la fornitura del servizio agli autori degli stessi.
Secondo i giudici, le pagine di Casapound che sono state oscurate presentavano, tra l’altro, «hate speech basati sulla razza o etnia», «simboli che rappresentano/elogiano un’organizzazione che incita all’odio (come tutta la simbologia fascista o l’elogio ai combattenti della X Mas o della Repubblica di Salò…) o che incitano alla violenza» ecc.. Quei contenuti «non solo violano le condizioni contrattuali, ma sono illeciti» in base al complesso sistema normativo e alla vasta giurisprudenza nazionale e sovranazionale citata dai giudici. Pertanto, «Facebook non solo poteva risolvere il contratto grazie alle clausole contrattuali accettate al momento della sua conclusione, ma aveva il dovere legale di rimuovere i contenuti, una volta venutone a conoscenza, rischiando altrimenti di incorrere in responsabilità».
In buona sostanza, i giudici hanno confermato che il gestore di un social network non ha pieno potere discrezionale sul suo ambito “privato”, ma deve garantire il rispetto di principi del nostro ordinamento, attraverso l’intervento sui contenuti che infrangono i principi stessi, fino ad arrivare al loro oscuramento e all’esclusione dell’autore dalla piattaforma. La recente sentenza costituirà un importante tassello del quadro di regolazione dei social, che è ancora in divenire.
© Riproduzione riservata