Se alle porte dell’Europa i conflitti militari si moltiplicano tragicamente, una guerra più discreta, ma non meno violenta o pericolosa, sta invadendo il vecchio continente. Clic dopo clic. La battaglia è culturale e si gioca sugli schermi che illuminano le nostre giornate a casa, nei trasporti e in ufficio.

La particolarità di questa guerra digitale è la difficoltà d’identificare il nemico, chi lancia gli attacchi e quali sono i reali obiettivi. Infatti, quelli che Giuliano De Empoli ha battezzato come gli “ingegneri del caos” non conoscono le frontiere politiche e si muovono liberamente nello spazio digitale, espandendo la loro influenza attraverso la disinformazione e l’intelligenza artificiale. Per garantire che il digitale rimanga uno spazio democratico e per lottare contro la disinformazione, tutti i maggiori attori occidentali si sono incontrati il 9 e il 10 ottobre a Riga per la conferenza annuale DisinfoLab, organizzata con il sostegno di governo lettone, Nato, Meta, TikTok e Microsoft.

“Weaponizzazione

«Viviamo e vivremo sempre maggiori ingerenze da parte della Russia. Per questa ragione in Lettonia prendiamo seriamente l’indipendenza e la protezione dei media: è una questione di sicurezza e di libertà», ha precisato Baiba Braže, la ministra lettone degli Affari esteri, in apertura della conferenza. Oggi, la disinformazione rappresenta un reale pericolo per le democrazie, anche quelle occidentali.

«Gli attori criminali sono sempre più organizzati e agiscono con il supporto, più o meno esplicito, dei governi. Alcuni stati utilizzano ormai gli stessi strumenti, tecniche, processi e infrastrutture dei gruppi criminali per distribuire sia attacchi informatici che campagne di disinformazione. Basti pensare alla campagna di disinformazione che si è verificata in concomitanza con gli attacchi informatici a seguito dell’invasione dell’Ucraina. Nella stessa maniera, coloro che si adoperano per la difesa dello spazio democratico dovrebbero agire collettivamente e in maniera più coordinata per amplificare l’efficacia e la tempestività della risposta», spiega Francesca Bosco, direttrice della Strategie e Partnership del CyberPeace Institute, una ong che sostiene il settore umanitario e associativo contro gli attacchi cyber.

«La disinformazione è un vettore di polarizzazione e manipolazione: la massa di informazioni disponibile è cresciuta in maniera esponenziale, ma è sempre più complesso navigare tra i contenuti disponibili online», sottolinea Paula Gori, segretaria generale dell’Edmo, l’Osservatorio europeo dei media digitali, basato a Firenze.

«Al di là delle ingerenze straniere, la nostra classe politica dovrebbe essere esemplare: la libertà di espressione non giustifica la promozione del falso. Questo modo di fare politica non rispetta la dignità del cittadino».

Vero o falso? Veloce

La folgorante accelerazione del tasso di penetrazione della tecnologia impone ai giornalisti di adattarsi. Basti pensare che ChatGpt è sbarcato sul mercato e in 5 giorni ha raggiunto 1 milione di utilizzatori. «Nel 2024 abbiamo osservato un incremento dei deepfake, in particolare quelli vocali, fabbricati facilmente senza bisogno di grandi competenze o infrastrutture.

Queste azioni sono pensate per creare confusione, mettendo in pericolo il dibattito democratico, in particolare durante le fasi preelettorali. Pensate alle recenti immagini trafficate di Taylor Swift a sostegno di Donald Trump. Il ruolo dei giornalisti è di smascherare le false informazioni e rivelare quali sono gli obiettivi della manipolazione e delle teorie del complotto», spiega Denis Teyssou, direttore del MediaLab dell’agenzia di stampa francese Afp. A capo di un consorzio europeo, ha creato VeraAI.eu, un’applicazione open source che permette di stabilire il livello di veridicità di un’immagine trovata su internet.

E qui entrano in gioco i GAFA. «I social media rappresentano un vettore importante per la diffusione della disinformazione, e le collaborazioni con le piattaforme sociali non sono sempre ottimali, in particolare nell’uso degli algoritmi e delle politiche di moderazione», sottolinea Hervé Letoqueux, responsabile delle operazioni di Viginum, l’Agenzia francese di vigilanza e protezione dalle ingerenze straniere.

Intelligenza artificiale

«Il rischio dell’Ia non è di essere più intelligente dell’umano, il vero rischio è di pensare che sia più intelligente di noi», ironizza Christo Buschek, programmatore e giornalista d’investigazione tedesco di Der Spiegel e premio Pulitzer. «L’Ia permette d’industrializzare la produzione di immagini virtuali. E i giornalisti saranno sempre più confrontati con la capacità di verificare se queste immagini siano vere o false. Possiamo creare degli strumenti per facilitare il processo di analisi, ma sono convinto che il lavoro umano sarà sempre necessario». Dietro ai rischi di un mondo digitale in cui vero e falso non si distinguono più, Christo anticipa anche un rischio economico.

«Le aziende stanno investendo trilioni di euro nell’intelligenza artificiale. Al momento stiamo collettivamente utilizzando e nutrendo le piattaforme basate sull’Ia gratuitamente, ma un giorno queste aziende vorranno recuperare le risorse investite. A un certo punto, arriverà il conto da pagare».

I limiti della verità?

Nel 2022, oltre il 70 per cento dei cittadini europei si è imbattuto in almeno una fake news, come per esempio il terrapiattismo, le chemtrails (il complotto sulle scie chimiche degli aerei) o la 5G come vettore del Covid. In questo contesto, bisogna sicuramente investire sul fact-checking, o il processo che permette di stabilire la veridicità di un evento, di una cifra o una teoria attraverso degli elementi fattuali e oggettivi. Ma il fact-checking non può essere la sola soluzione. Infatti, le tecniche di disinformazione si fondano essenzialmente sull’irrazionalità e sulle emozioni.

In questo senso, le cifre, i fatti e gli algoritmi non saranno sufficienti per invertire la pericolosa rotta che sta prendendo il digitale.

© Riproduzione riservata