Le istituzioni europee stanno per approvare un regolamento contro la pedopornografia online (“Csam”). Ma dietro la proposta si celano pure sorveglianza di massa e interessi privati; compresi divi in affari come Ashton Kutcher… Dopo le rivelazioni di questo team di inchiesta europeo, la Commissione Ue dovrà risponderne. Un lavoro giornalistico in partnership con Le Monde, Die Zeit, Balkan Insight, Solomon, Irpi Media, De Groene Amsterdammer, El Diario e Netzpolitik
Nelle prossime settimane le istituzioni europee tireranno le fila di uno dei pacchetti legislativi più discussi degli ultimi anni: la proposta di Regolamento per il contrasto alla diffusione di materiale pedopornografico online, noto con la sigla Csam (da Children sexual abuse material). Ed è una priorità assoluta per Ylva Johansson, la commissaria Ue agli Affari interni che ha lanciato la proposta a maggio 2022. Da allora ha lavorato incessantemente perché la legislazione fosse approvata prima del rinnovo del Parlamento europeo nel giugno 2024, e ha sminuito chi riteneva che la proposta ponesse seri rischi per la privacy delle comunicazioni digitali.
Ma un team di inchiesta, di cui Domani ha fatto parte, ha rivelato negli ultimi mesi una serie di dettagli sulle relazioni tra la direzione generale per gli Affari interni, guidata da Johansson, e gruppi di pressione legati sia a società statunitensi del Big tech, sia a potenti agenzie di polizia. Grazie a numerose richieste di accesso agli atti, a leaks, incontri e interviste con politici, lobbisti, organizzazioni pro-privacy e per i diritti dei minori, l’inchiesta ha fatto emergere come alcune aziende, fondazioni e organizzazioni non governative abbiano avuto un accesso privilegiato alla Commissione europea, nel corso di tutto l’iter legislativo, aprendo la strada a potenziali conflitti d’interesse.
Si tratta in particolare di Thorn, non profit statunitense, fondata Ashton Kutcher, attore con interessi ramificati nel mercato dell’intelligenza artificiale, di WeProtect Global Alliance, fondazione che raduna governi, agenzie di polizia e compagnie tecnologiche e nel cui consiglio d’amministrazione siede un alto funzionario della Commissione Ue, e di alcuni enti di consulenza e advocacy.
Lo scorso 25 ottobre, la commissione per le Libertà civili (Libe) dell’Europarlamento, incaricata di gestire il dossier legislativo, ha adottato un testo di compromesso. Sarà votato in plenaria a metà novembre. Intanto la Commissione europea non potrà non rispondere a richieste di chiarimenti, documenti e indagini interne attivati sia dall’Europarlamento, che dalla difensora civica e dal garante per la privacy europei.
Da Hollywood a Bruxelles
Protagonista della sitcom That ‘70s Show e di diversi blockbuster hollywoodiani, Ashton Kutcher ha iniziato a frequentare le istituzioni europee dalla fine del 2020, quando il disegno di legge proposto da Ylva Johansson stava prendendo forma. Kutcher non è stato solo un eccellente testimonial per la proposta della Commissione, capace in diverse occasioni – l’ultima volta lo scorso 20 marzo a Bruxelles – di commuovere parlamentari, funzionari e società civile.
Thorn, la no profit da lui creata nel 2012, ha avuto infatti rapporti continui e privilegiati con diversi membri della Commissione. Thorn è, nella forma, un’organizzazione no profit, il cui scopo è proteggere i minori nel mondo digitale. Nel corso degli anni ha però sviluppato controversi software per scansionare siti, applicazioni e piattaforme di comunicazione online alla ricerca di tracce di abusi su minori e di sfruttamento della prostituzione, vendendo licenze per milioni di dollari ad agenzie di polizia statunitensi e canadesi. Sistemi che usano l’intelligenza artificiale per trovare immagini, video, testi e audio potenzialmente illegali, scambiati o immagazzinati in chat personali e piattaforme online.
Se l’importanza dell’obiettivo è indiscutibile, diverse fonti contattate per l’inchiesta sono convinte che la legislazione aprirebbe spazi di mercato per le tecnologie prodotte da Thorn, in collaborazione con colossi come Microsoft e Amazon. Arda Gerkens, ex direttrice di Offlimits, una delle più grandi e antiche organizzazioni per la protezione dei minori in Europa, oggi a capo della neonata Autorità olandese contro terrorismo e pedopornografia online, dice che «gruppi come Thorn hanno fatto tutto il possibile per sostenere questa proposta di legge, non solo perché credono che sia la giusta soluzione per combattere gli abusi sui minori, ma anche perché hanno un interesse commerciale».
Thorn appare nel registro sulla trasparenza dell’Ue, in cui è tenuto a iscriversi chi fa lobbying, come ente senza scopo di lucro. Eppure la stessa Commissione ha rifiutato di rivelare una serie di documenti relativi ai suoi rapporti con l’organizzazione, in nome della protezione di interessi commerciali. Il team d’inchiesta di cui Domani ha fatto parte è riuscito a ottenere parte della documentazione grazie all’intervento della difensora civica (ombudsman) europea, incaricata di vegliare sul rispetto delle norme di buona amministrazione da parte dell’Ue, che ancora sta indagando su diverse segnalazioni relative al rifiuto, da parte della Commissione e di Europol, di ottemperare ai propri obblighi di trasparenza.
Uno dei documenti ottenuti, un lungo scambio di email tra gli uffici di Johansson e Thorn, nel 2022, mostra per esempio il coordinamento continuo per organizzare un «webinar sulle tecnologie». Il compito di Thorn, spiegano i funzionari della Commissione, è di «chiarire e demistificare le tecnologie per identificare Csam, e dissipare ogni disinformazione e incomprensione che i rappresentanti degli stati membri incaricati di negoziare la proposta potrebbero avere». La stessa proposta riguarda un altro evento a porte chiuse, un meeting di alto livello tra ministri dell’Interno europei, ospitato dall’Eu Internet Forum nel dicembre dello scorso anno.
I loro interessi o la privacy?
La proposta della commissaria Johansson ha trovato un’opposizione decisa da parte del Garante europeo per la privacy. Il 23 ottobre, in apertura di una giornata di dibattito sul nuovo pacchetto legislativo, il garante ha diffuso un briefing, sottolineando i rischi del testo presentato dalla Commissione. «Le comunicazioni interpersonali di un enorme numero di cittadini innocenti sarebbero soggette a sorveglianza, senza un beneficio sostanziale per la sicurezza e il benessere dei bambini, o per combattere i reati», riporta il documento.
Il garante aveva anche avviato l’esame di una campagna di microtargeting, ovvero di comunicazione mirata a specifiche categorie di profili, dopo che il ricercatore olandese Danny Mekić aveva rivelato come, per diffondere i post legati alla proposta di legge sugli Csam su X/Twitter, la Commissione avrebbe utilizzato categorie di dati sensibili – come l’orientamento politico e religioso degli utenti – proibite dal Digital Services Act, legislazione europea entrata in vigore ad agosto. Johansson ha poi ammesso che ci fossero «punti di domanda» legati al rispetto della legge da parte della Commissione.
Il testo di compromesso della Commissione Libe viene incontro proprio ad alcune preoccupazioni espresse dal garante Ue per la privacy, indicando come la scansione di chat e piattaforme online debba avvenire solo nei confronti di individui e gruppi sospettati di condividere contenuti illegali e non verso tutti gli utenti di una data applicazione, come previsto dal testo della Commissione.
Il compromesso adottato dal parlamento Ue dovrà però interagire con quello del Consiglio (cioè dei governi europei), che non è ancora definitivo ma potrebbe avvicinarsi maggiormente alla proposta iniziale di Johansson, che è sostenuta anche dai negoziatori italiani. La Direzione generale guidata da Johansson ha risposto in modo solo parziale alla richiesta, inoltrata dal parlamento Ue, di acquisire tutta la documentazione sulle «comunicazioni e connesioni» tra la Commissione, Europol e una serie di gruppi d’interesse, tra cui Thorn, in relazione al disegno di legge sul Csam.
Uno dei documenti ottenuti dall’inchiesta, rivela come proprio Europol, nel 2022, avesse chiesto di poter ottenere tutti i dati raccolti grazie all’implementazione del futuro regolamento e segnalato come si sarebbe potuto applicare lo stesso sistema di scansione e identificazione dei Csam ad “altre aree di reato”, utlizzando senza limitazioni strumenti di intelligenza artificiale.
Questa inchiesta è stata sostenuta dal programma Investigative Journalism for the EU ed è stata pubblicata in partnership con Le Monde, Die Zeit, Balkan Insight, Solomon, Irpi Media, De Groene Amsterdammer, El Diario e Netzpolitik
© Riproduzione riservata