- L’intelligenza artificiale si è dimostrata lo strumento più potente che dittatori e autocrati sfruttano per mantenere il loro potere, smentendo le previsioni secondo cui le nuove tecnologie sarebbero addirittura riusciti ad abbatterli
- Alcuni esperti pensano inoltre che il deep learning permetterebbe di centralizzare con grande efficacia il potere decisionale, dando un vantaggio alle dittature rispetto alle democrazie
- Non tutti però sono d’accordo: e se invece l’utilizzo politico di questi strumenti aumentasse enormemente la possibilità di fraintendere gli umori della popolazioni, esponendo i regimi a grandi rischi?
A dare retta a Elon Musk, l’intelligenza artificiale rappresenta una gravissima minaccia alla stabilità politica globale. Come ha spiegato l’imprenditore nel documentario “Do You Trust This Computer”, lo sviluppo incontrollato degli algoritmi di deep learning potrebbe infatti generare, un domani non si sa quanto distante, una superintelligenza artificiale in grado di governare il mondo anche contro la nostra volontà. In questo modo, ha concluso il cofondatore, poi fuoriuscito, di OpenAI, potremmo dare vita a un «dittatore immortale dal quale potremmo non liberarci mai».Essendo ormai noto per avere una visione sull’intelligenza artificiale che ha poco a che fare con la realtà, possiamo probabilmente derubricare i timori di Musk alla voce “fantascienza”. Oggi, però, sappiamo come anche la visione opposta – quella secondo cui l’intelligenza artificiale avrebbe potenziato la democrazia – si sia rivelata estremamente ingenua: «Un premier intelligenza artificiale offre la possibilità di ottenere la forma più pura di governo democratico», ha scritto per esempio l’esperto di tecnologia Joshua Davis su Wired. «Gli elettori potrebbero scegliere tra un algoritmo repubblicano o democratico che poi metterà in atto il programma del partito. In alternativa, gli elettori potrebbero semplicemente votare su una serie di temi e poi lasciare che sia la AI a scegliere come affrontarli».
Valutazioni errate
Più realisticamente, altri esperti avevano immaginato che la classe politica potesse sfruttare degli algoritmi in grado di valutare quali specifiche misure, nel passato e in tutto il mondo, si fossero rivelate più efficaci per risolvere determinati problemi, suggerendo poi la loro implementazione a livello governativo. Tutte queste proposte sembrano però sottovalutare i limiti degli algoritmi di deep learning, afflitti come sono da bias, errori di valutazione e soprattutto dal fatto che, dipendendo da dati del passato, tendono a rafforzare lo status quo invece di favorire il progresso.Nell’ultimo decennio, d’altra parte, di interpretazioni errate sulla capacità delle nuove tecnologie di rafforzare le democrazie, o addirittura sconfiggere le dittature, ne abbiamo già viste tante: «I big data salveranno la politica: i telefoni cellulari, la rete e la diffusione dell’informazione sono una combinazione letale per i dittatori», recitava per esempio una famigerata copertina del 2012 della MIT Technology Review.
A dieci anni di distanza, dopo aver visto come le nuove tecnologie potrebbero semmai aver aiutato l’elezione di Trump o di Bolsonaro, e soprattutto come i big data, internet e anche gli algoritmi di intelligenza artificiale si siano dimostrati gli strumenti più potenti che dittatori e autocrati sfruttano per mantenere il loro potere, sappiamo che tutte queste ottimistiche previsioni si sono rivelate sbagliate. Ma che cos’è andato storto?
«Il potere impara sempre», ha spiegato la sociologa ed esperta di nuove tecnologie Zeynep Tufecki. «E gli strumenti più potenti finiscono sempre nelle sue mani. È una dura lezione di storia che si dimostra sempre valida. È la chiave per capire come mai, negli ultimi anni, le tecnologie digitali sono passate dall’essere accolte come strumenti di libertà all’essere accusate di sovvertire le democrazie occidentali, facilitare la polarizzazione e favorire il crescente autoritarismo».
Boomerang
È grazie ai dati prodotti in rete – anche tramite le comunicazioni digitali e i profili social – che è stato possibile addestrare algoritmi di machine learning in grado di analizzare gli scambi testuali che avvengono online, di estrarre informazioni dai metadati raccolti durante le conversazioni, di monitorare gli spostamenti (potenzialmente) di chiunque attraverso il riconoscimento facciale e di conoscere nel dettaglio gli orientamenti politici, religiosi o sessuali di ciascuno di noi. In un’epoca in cui tutto diventa sempre più polarizzato, non dovrebbe stupire che gli strumenti che hanno consentito un accesso senza precedenti all’informazione libera siano gli stessi che hanno permesso di dispiegare una sorveglianza altrettanto pervasiva.
Sempre per la loro capacità di elaborare enormi quantità di dati ed estrarre informazioni utili da essi, lo storico Yuval Noah Harari sostiene che gli algoritmi di machine learning non solo rafforzano le dittature, ma potrebbero anche renderle più efficaci delle democrazie: «Storicamente, le autocrazie hanno dovuto affrontare gravi handicap quando si parla di innovazione e di crescita economica», ha scritto Harari in un saggio. «Sul finire del Ventesimo secolo, le democrazie hanno solitamente offerto prestazioni migliori delle dittature anche perché in grado di elaborare meglio le informazioni a disposizione (...). La democrazia distribuisce tra molte persone e istituzioni il potere di elaborare le informazioni e di prendere decisioni, laddove le dittature concentrano l’informazione e il potere in un luogo solo. Questa eccessiva concentrazione non era efficace. È una delle ragioni per cui l’Unione Sovietica ha preso decisioni molto peggiori degli Stati Uniti, restando indietro sul fronte economico».
Secondo Harari, gli algoritmi di deep learning potrebbero però invertire la situazione: «L’intelligenza artificiale rende possibile elaborare a livello centrale un’enorme quantità d’informazioni. A dirla tutta, potrebbe rendere i sistemi centralizzati molto più efficienti di quelli distribuiti». E questo perché, conclude lo storico, il machine learning funziona meglio quando un solo sistema – gestito quindi da un’unica autorità – ha a disposizione tutte le informazioni che è necessario analizzare.
Non tutti sono d’accordo con questa interpretazione. Come sappiamo, alcuni degli strumenti più potenti che l’intelligenza artificiale fornisce ai dittatori permettono di analizzare e censurare in tempo reale i post sgraditi sui social network, di minimizzare il rischio di proteste attraverso capillari network di sorveglianza basati anche su riconoscimento facciale e, potenzialmente, di sfruttare le intelligenze artificiali generative per produrre disinformazione basata su testi, immagini e video fasulli, indirizzando con facilità l’opinione pubblica.
Tutto ciò, però, potrebbe rivelarsi un colossale e inatteso boomerang. Almeno è questa l’opinione del politologo Henry Farrell, che assieme a due colleghi ha firmato un lungo saggio su Foreign Affairs: «Un autoritarismo completamente automatizzato potrebbe rivelarsi una trappola per nazioni come la Cina, che concentrano l’autorità nelle mani di un piccolo e isolato gruppo di decisori. (...) Nel momento in cui una nazione utilizza ampiamente questi algoritmi, l’ideologia dei leader non potrà che dare forma al modo in cui sono impiegati, agli obiettivi per i quali sono progettati e al modo in cui interpretano i risultati. [In questo modo], i leader faranno molta più fatica a comprendere e a rimediare ai loro errori politici, anche quando si tratta di errori che mettono a rischio il regime».
In poche parole, le analisi e le decisioni supportate da algoritmi rischiano di riflettere soltanto la volontà dei leader, ammantandole però di una pericolosa, perché fraintendibile, patina di oggettività. Allo stesso tempo, anche la censura in tempo reale e la propaganda potenzialmente personalizzata renderanno sempre più difficile interpretare il vero livello di soddisfazione dei cittadini, esponendo i dittatori a gravi rischi.
Lo scollamento tra leader e cittadini potrebbe insomma venire ingigantito dall’utilizzo per fini politici – a livello comunicativo e un domani anche decisionale – degli algoritmi, creando uno specchio in cui i leader dei regimi autoritari riflettono soltanto se stessi.
Chi ha ragione: chi ritiene che gli strumenti basati anche su deep learning rafforzano le dittature o chi pensa che potrebbero rivelarsi un boomerang? Per il momento, l’esperienza sembra dare ragione ai primi, soprattutto grazie al controllo capillare che questi consentono. Solo il tempo, però, potrà dirci come evolverà il rapporto tra nuove tecnologie e regimi. E non si può escludere che, col tempo, questi strumenti porteranno i dittatori a compiere il più classico degli errori: travisare gravemente gli umori della popolazione.
© Riproduzione riservata