Nel 2024 due miliardi di persone andranno alle urne: quanto conterà l’intelligenza artificiale? Secondo il professor Luciano Floridi anche solo spostare pochi voti è un rischio «gravissimo»
Entro la fine del 2024 sapremo se la democrazia sopravviverà nel mondo oppure no. Secondo il Center for American Progress, un istituto politico statunitense, quest’anno si recheranno alle urne oltre 2 miliardi di elettori in 50 Paesi. I fari sono puntati sull’impatto che l’intelligenza artificiale avrà sul processo democratico.
Secondo Luciano Floridi, direttore del Centre for Digital Ethics dell’Università di Yale, l’AI potrebbe avere effetti positivi e negativi. «Negli Stati Uniti, il Partito repubblicano e quello democratico stanno utilizzando l’intelligenza artificiale per raggiungere le persone con offerte politiche personalizzate, attraverso l’analisi dei dati. Se per esempio, sono un elettorale indeciso e ho a cuore il tema dell’aborto, il Partito democratico potrà preparare per me un messaggio preciso, focalizzato proprio su come i Dem intendano affrontare l’argomento. Questo coinvolge e mobilita la popolazione al voto. Gli effetti negativi, invece, sono enormi e diffusi in un contesto che vede miliardi di persone andare alle urne, perché l’AI può manipolare i cittadini con informazioni false o tendenziose, attraverso contenuti di altissima qualità, realizzabili in modo molto poco costoso, con precisione, e in quantità industriale».
Disinformazione democratizzata
L’intelligenza artificiale sta creando una “democratizzazione” della disinformazione e se nel 2016, la Russia ha impiegato 12milioni di dollari e 400 persone per influenzare il risultato delle elezioni statunitensi, oggi basterebbero meno di 1.000 dollari e piccoli gruppi di individui per mettere in piedi una campagna di disinformazione efficace.
Realizzare deepfake – ovvero immagini, video e audio falsi o imprecisi – è infatti molto semplice. Gli account bot iperrealistici creati con l’intelligenza artificiale – che fingono di essere persone reali o istituzioni – riescono a divulgare questi contenuti molto velocemente e a milioni di persone.
Se per esempio diamo uno sguardo ai commenti sotto gli ultimi post Instagram di Donald Trump, notiamo che alcuni utenti lasciano sempre lo stesso commento: «Sono una democratica e voterò per Trump nel 2024». Uno di questi raggiunge 28,9mila like e 857 risposte. A primo impatto, andando sul loro profilo, sembrano delle persone reali. Anche le bio sono verosimili: «Insegnante e mamma orgogliosa di due bambini», «manager alla scoperta del mondo», «modella, fitness freak, amante dei viaggi». Se si scrolla in basso, però, in tutti i casi il nome degli account è accompagnato da una serie di numeri e la prima foto del profilo risale alla primavera del 2023. Dopo tre giorni due di questi utenti sono stati cancellati da Instagram. Si trattava di bot.
Il Times ha raccontato che sono stati diffusi deepfake di Sir Keir Starmer, leader del partito laburista britannico e del sindaco di Londra Sadiq Khan mentre esprimono opinioni offensive. I contenuti sono stati smentiti solo dopo essere stati condivisi da migliaia di persone, influenzando l’opinione pubblica.
L’esempio di Milei
Durante la recente campagna elettorale per le presidenziali argentine, il candidato vincitore Javier Milei ha utilizzato l’AI per dipingere i suoi rivali come comunisti senza scrupoli. In particolare, è stato divulgato un video che mostra il suo rivale di sinistra Sergio Massa mentre fa uso di droghe. In Slovacchia, invece, pochi giorni prima delle elezioni del 30 settembre 2023, è stato diffuso un audio generato con AI in cui uno dei candidati sembra discutere di come truccare le elezioni.
«Non possiamo quantificare l’influenza della disinformazione prodotta dall’intelligenza artificiale sulle elezioni di un Paese, ma possiamo fare una comparazione. Immaginiamo di essere in un supermercato, vediamo un sacco di patate. Quanto pesano? Non lo sappiamo. Ma certamente pesano molto di più di un pacco di grissini. Alcune persone possono pensare che se la manipolazione generata dall’AI è in grado di spostare solo in parte l’ago della bilancia, allora non è grave. Invece è gravissimo, perché ormai molte elezioni si vincono per pochi punti di percentuale. Inoltre, quello che è più preoccupante è ciò che non si vede: per esempio, quanto è manipolato chi si astiene. In certe regioni non votare significa per un candidato vincere le elezioni. Se negli Stati Uniti gli ispanici o gli afroamericani decidono di non andare a votare, vuol dire che il partito più conservatore riesce ad avere il sopravvento».
«Allo stesso tempo – prosegue Floridi – la disinformazione è in grado di influenzare così tanto i cittadini perché le persone sono già manipolabili. C’è una popolazione disinformata, che è pronta a credere a qualsiasi cosa e che si è già dimenticata di quello che è successo a Capitol Hill. Quindi l’intelligenza artificiale aumenta la confusione e la manipolazione, ma la malattia è politica».
Il problema principale è l’effetto cumulativo che l’AI ha sulla società. Se tutto può essere falso, allora non si crederà nemmeno a quello che è vero.
Secondo una classifica del Global Risk Report del World Economic Forum, pubblicato lo scorso 10 gennaio, la disinformazione è nella top 10 dei rischi per i prossimi due anni, prima del cambiamento climatico e delle guerre. Apparentemente questo dato può sembrare curioso, ma il motivo sta nel ruolo che la disinformazione svolge sulla politica. «Non è il problema più grave di tutti ma è quello che ha conseguenze a cascata su tutto il resto. Se vogliamo il primo e il secondo piano di un palazzo, dobbiamo costruire le fondamenta. Se vogliamo risolvere i conflitti, il cambiamento climatico ed evitare la guerra atomica con la Cina, abbiamo bisogno di una politica e di una società che si fondino sulla buona informazione».
© Riproduzione riservata