I social network abbandonano gli sforzi per monitorare i contenuti proprio alla vigilia di due cruciali elezioni, mentre fake news e deepfake diventano sempre più convincenti e facili da produrre: stiamo andando incontro alla tempesta perfetta?
Il 28 settembre 2023, solo due giorni prima delle elezioni in Slovacchia, una registrazione audio pubblicata su Facebook inizia a circolare massicciamente. Nella registrazione si sentono le voci del candidato europeista Michal Šimečka e della giornalista Monika Tódová mentre discutono di come truccare le elezioni comprando voti dalla minoranza rom presente nel paese. La registrazione – come denunciato immediatamente dai due protagonisti e come confermato dall’agenzia di stampa Afp – è però falsa, creata utilizzando uno dei tantissimi strumenti basati su intelligenza artificiale in grado di riprodurre la voce di chiunque per fargli dire ciò che si vuole.
È impossibile sapere quanto questo deepfake, creato in pochi minuti usando software alla portata di tutti, abbia penalizzato Šimečka (risultato sconfitto da Robert Fico). Una cosa però è certa: quanto avvenuto in Slovacchia potrebbe essere un’avvisaglia di ciò che ci attende, su scala molto più ampia, in un 2024 segnato da appuntamenti cruciali come le elezioni europee di giugno e le presidenziali statunitensi di novembre.
L’ombra del 2016
Per molti versi si tratta di un ritorno al passato: già nel 2016 vari gruppi più o meno organizzati – tra cui gli ormai celebri “troll russi” della Internet Research Agency di San Pietroburgo – avevano cercato di condizionare le elezioni statunitensi e il voto sulla Brexit, inondando il web e i social media di fake news, propaganda, disinformazione, teorie del complotto e altro ancora.
La speranza era che le tantissime polemiche avessero convinto i colossi della Silicon Valley ad abbandonare la loro storica posizione pilatesca e a monitorare con maggiore attenzione i contenuti presenti sui social network. Per un po’, in effetti, le cose sono andate proprio così: dopo gli scandali del 2016, YouTube ha ridotto drasticamente la visibilità dei video complottisti che da anni circolavano sulla piattaforma, Google ha iniziato a bloccare le notizie false che comparivano in cima al motore di ricerca e Facebook, dopo aver per lungo tempo negato le sue responsabilità, ha nettamente invertito la rotta e ha iniziato a fare piazza pulita degli account e delle pagine più estreme e pericolose, seguito a ruota da Twitter e dagli altri social network.
«La cosa che più mi preoccupa adesso è assicurarmi che nessuno interferisca con le varie elezioni che si terranno nel mondo», aveva dichiarato Mark Zuckerberg durante un’audizione al Senato statunitense nel 2018. In vista delle elezioni di midterm dello stesso anno, la società poi diventata Meta aveva così ampiamente pubblicizzato la sua cosiddetta “war room elettorale”: un nuovo dipartimento dedicato al monitoraggio dei contenuti potenzialmente pericolosi. Meta aveva inoltre assoldato migliaia di nuovi moderatori, stretto alleanze con testate giornalistiche che si sarebbero dedicate al fact-checking e dato vita a un comitato indipendente per la supervisione dei contenuti.
Una nuova deriva
Anche in questa nuova fase non tutto è filato liscio, come dimostrato dalla straordinaria diffusione della teoria del complotto QAnon – che ha giocato un ruolo di primo piano nell’assalto al Campidoglio del 6 gennaio 2021 – e dalla circolazione delle tantissime fake news relative al Covid. Al netto di qualche débâcle, il cambio di rotta dei social network è comunque stato evidente e simboleggiato dalla rimozione di Donald Trump da tutte le principali piattaforme sempre in seguito all’assalto al Campidoglio.
E poi, negli ultimi 12 mesi, le cose sono nuovamente cambiate: alle prese con un ciclo economico sfavorevole e con guadagni meno faraonici del passato, Meta, Google (proprietario di YouTube) e soprattutto X/Twitter del nuovo corso di Elon Musk (che considera il monitoraggio dei contenuti una forma di censura) hanno rapidamente ridotto gli sforzi per contrastare la disinformazione, licenziando migliaia di moderatori, smantellando i comitati indipendenti ed eliminando alcune delle politiche varate in precedenza.
YouTube ha per esempio smesso di rimuovere i video che sostengono che le presidenziali statunitensi del 2020 siano state “rubate” da Joe Biden, Meta permette adesso agli utenti di diffondere notizie certificate come false (anche se accompagnandole con un bollino di avvertimento), X ha riammesso la maggior parte dei personaggi pubblici messi al bando (a partire da Donald Trump) e perfino la piattaforma di newsletter Substack si è inizialmente opposta alla richiesta, giunta da moltissimi suoi autori, di rimuovere o “demonetizzare” i blog apertamente filonazisti. Una marcia indietro dettata probabilmente anche da una certa frustrazione: «Per i democratici non rimuoviamo abbastanza contenuti, per i repubblicani lo facciamo troppo. La sensazione è che, nonostante i nostri sforzi, ci urlino sempre addosso. Non ne vale più la pena», ha infatti spiegato al Washington Post l’ex responsabile delle public policy di Facebook, Katie Harbath
I fake non scompaiono
Questo cambio di atteggiamento rischia però di scontrarsi con la nuova norma varata dall’Unione europea: il Digital Services Act, che impone alle piattaforme, tra le altre cose, di monitorare attentamente i contenuti che circolano al loro interno, pena multe salatissime.
Se l’efficacia di questa nuova norma è ancora tutta da dimostrare, è invece certo che la disinformazione rischia di essere resa sempre più aggressiva a causa dell’utilizzo dei sistemi di intelligenza artificiale. Dagli esempi di audio fasulli da cui siamo partiti fino ai sempre più credibili deepfake (video falsi in cui compaiono personaggi reali), dalle finte fotografie create in pochi secondi usando software come Midjourney o Dall-E (celebre quella del papa con il piumino bianco), fino alla possibilità di creare falso materiale elettorale o impiegare software come ChatGpt per produrre un’enorme quantità di fake news localizzate, targettizzate o tradotte in molteplici lingue.
Il conflitto ucraino e quello in corso a Gaza hanno dimostrato la pericolosità anche dei più banali “cheap fake” (per esempio, video o immagini di conflitti precedenti – o tratti da film – pubblicati come se fossero relativi a quelli in corso): quale caos informativo può allora essere generato attraverso i più recenti sistemi di intelligenza artificiale? «Tutto ciò che da qualche tempo ha rappresentato una minaccia per la democrazia può potenzialmente essere reso peggiore dalla Ia», ha spiegato al New York Times Lawrence Norden, responsabile elettorale del Brennan Center for Justice.
Il rischio di rivivere su scala superiore quanto già avvenuto nel 2016 è confermato anche dalle nuove forme di disinformazione messe in campo dalla Russia. Tra queste spiccano i cosiddetti “doppelgänger”: finte testate online a prima vista indistinguibili dai più noti quotidiani internazionali o finti siti web legati a note ong o a istituzioni.
L’Ia non è una fonte affidabile
A complicare ulteriormente il quadro c’è infine la produzione di “fake news involontarie” da parte degli utenti che utilizzano le intelligenze artificiali in stile ChatGpt per ottenere informazioni di stampo politico ed elettorale. Un utilizzo improprio ed errato (ma a volte promosso dagli stessi produttori), visto che i Large Language Model non sono sufficientemente accurati e sono anzi frequentemente vittime delle cosiddette allucinazioni, quando cioè questi sistemi – in grado di produrre testi di ogni tipo rispondendo a comandi posti in linguaggio naturale – presentano come se fossero dei fatti delle informazioni in realtà completamente errate.
Una ricerca di Algorithm Watch ha mostrato come un terzo delle risposte fornite da Copilot (il sistema di Microsoft prima noto come Bing Chat) relativamente alle elezioni che si sono tenute lo scorso anno in Svizzera e in due stati federati tedeschi contenevano degli errori fattuali (compresi scandali giudiziari inventati, sondaggi sbagliati e date errate), portando i ricercatori a definire Copilot «una fonte inaffidabile di informazioni per gli elettori». E così, le stesse intelligenze artificiali che si stanno rivelando un potentissimo strumento per la creazione di contenuti disinformativi di ogni tipo si dimostrano invece estremamente deboli quando si tratta di fornire informazioni accurate agli utenti che le richiedono, il tutto mentre i social network – alla vigilia di due fondamentali appuntamenti elettorali – riducono o abbandonano gli sforzi per monitorare il materiale che circola sulle loro piattaforme. Gli ingredienti per andare incontro alla tempesta perfetta ci sono tutti.
© Riproduzione riservata