- Molto più di quanto immaginiamo, le decisioni assunte dall’amministrazione pubblica dipendono da sistemi automatizzati caratterizzati dalla capacità di decidere senza coinvolgimento umano
- Spesso la scrittura dell’algoritmo è affidata a società informatiche esterne al decisore pubblico. L’acquisto di algoritmi solleva, quindi, questioni di responsabilità
- I processi automatizzati possono essere uno strumento per attuare il principio di uguaglianza, ma occorre intervenire con una normativa specifica che eviti di trasformare una grande opportunità in un pericoloso boomerang sociale
Le decisioni pubbliche si basano sempre di più sui così detti sistemi automatizzati caratterizzati dalla capacità di prendere decisioni impiegando mezzi tecnologici senza coinvolgimento umano. In questo ambito il ricorso agli algoritmi per assumere una decisione pubblica pone una serie di questioni in termini di trasparenza, di privacy, di responsabilità.
L’algoritmo, di per sé, è uno schema di calcolo numerico normalmente posto alla base di procedimenti informatici e software; essi esistono da quando esistono i computer. Oggi però sono molto più complessi e, grazie all’intelligenza artificiale, sono costantemente ricreati ed aggiornati producendo effetti anche imprevedibili. Da qui derivano una serie di questioni da affrontare.
A cosa servono
La prima questione è capire a cosa servono gli algoritmi nei processi decisionali pubblici.
Quando vi sono questioni complesse che riguardano una pluralità di persone ed in presenza di un budget limitato, il decisore pubblico deve fare delle scelte. Le scelte del decisore dipendono da una pluralità di fattori. L’algoritmo può servire, in questi casi, per aiutare il decisore, eliminando alcuni margini di ingiusta discrezionalità, semplificando la procedura di decisione e cercando, quanto più possibile, di essere oggettivi e razionali.
Si pensi alla vaccinazione da Covid-19: inizialmente, dinanzi a poche dosi disponibili, gli algoritmi sono stati utilizzati un po’ in tutto il mondo per semplificare la decisione in merito ai soggetti da vaccinare con priorità.
Oppure si pensi alle politiche sociali: l’algoritmo può aiutare nell’assegnazione di case popolari agli indigenti o di fondi alle associazioni di protezione sociale o ancora – come è successo in Italia, in altro ambito – all’assegnazione delle sedi scolastiche per gli insegnanti neo assunti.
Ma l’algoritmo non è, in realtà, mai imparziale.
Chi si nasconde dietro l’algoritmo?
E qui veniamo alla seconda questione ovvero chi elabora l’algoritmo.
L’algoritmo risponde ad un bisogno evidenziato dalla politica. Il decisore pubblico fissa l’obiettivo da raggiungere e, sulla base di tale obiettivo, seleziona i dati alla base dell’algoritmo. L’algoritmo elabora i dati e, tenendo conto dell’obiettivo, fornisce le soluzioni.
Appare evidente come sia essenziale capire chi decide l’obiettivo e in che modo e quali dati inserisce nel programma. Ed è altresì evidente che c’è una questione di trasparenza nella formazione dell’algoritmo.
Nelle democrazie, la Costituzione e le norme attuative assicurano forme di trasparenza dei processi decisionali pubblici. Ma tali norme assicurano la trasparenza dei procedimenti decisionali “tipizzati” come quello legislativo o quello amministrativo. La scrittura di un algoritmo non è sottoposto a queste forme di trasparenza.
Inoltre spesso la scrittura dell’algoritmo è affidata a società informatiche esterne al decisore pubblico. Gli appalti alle società di informativa pongono ulteriori questioni perché spesso vi sono vincoli di riservatezza e non è possibile conoscere la modalità di elaborazione dell’algoritmo. L’acquisto di algoritmi solleva, quindi, questioni relative alla responsabilità (di chi è?), alla discrezionalità nella progettazione e nel processo decisionale (chi ne dispone?) e alla definizione delle politiche (chi lo fa? chi le conosce?).
Questo problema, tuttavia, può essere risolto prevedendo una legislazione che imponga la massima trasparenza nell’appalto e che renda pubblico, in via anticipata, gli obiettivi fissati dal legislatore, i dati utilizzati e i criteri formulati dall’azienda per l’elaborazione dell’algoritmo. Tuttavia ciò non basta.
La scappatoia della politica
Qualche anno fa, nella città di Boston, il comune decise di affidare ad una società il compito di ridefinire i percorsi degli autobus. La società utilizzò un algoritmo. L’esito fu un notevole efficientamento delle risorse pubbliche ma i cittadini si lamentarono e avviarono una azione di pressione sul governo cittadino per impedire l’attuazione dell’algoritmo. Lo slogan di questa lobby civica era “famiglie contro algortimi”.
Questo slogan mostra l’errore di fondo. L’algoritmo non era sbagliato: il governo aveva chiesto una soluzione per rendere più efficiente il sistema di trasporto pubblico, ignorando le esigenze della cittadinanza. L’errore era stato del governo, non del computer. Ma il governo, in questo caso, ha avuto gioco facile nel nascondersi dietro l’algoritmo dicendo che avrebbe dato ordine di cambiarlo.
Al di là di questo esempio, c’è il rischio che l’algoritmo diventi un paravento della politica, uno “scapegoating” (una scappatoia) dietro il quale la politica possa nascondere i propri fallimenti e le proprie responsabilità.
Il potere dei dati
C’è poi un’altra questione relativa ai dati forniti dal decisore pubblico. I dati sono essenziali per evitare situazioni critiche ma quali dati? Spesso i dati disponibili per il decisore pubblico sono parziali. Spesso il decisore ha molti dati di quei cittadini che accedono ai servizi pubblici essenziali ma questi non bastano a dare il quadro della situazione complessiva. Inoltre occorrerebbe poter accedere a tutti i dati disponibili, anche quelli raccolti da soggetti privati, per poter avere un quadro oggettivo e completo. E questo pone un problema ancora più grande: aggregare così tanti dati, crea dei mostri informativi che contrastano con le esigenze di privacy.
La situazione critica è parsa evidente in Florida dove il consiglio scolastico della contea di Pasco e il Dipartimento statale per l’infanzia, diversi anni fa, hanno raccolto dati sugli studenti per sostenere gli obiettivi educativi e il benessere delle famiglie. Questi dati, tuttavia, sono stati combinati con quelli della polizia cittadina per identificare preventivamente i giovani a rischio di diventare criminali così da controllarli. In questo caso, l’integrazione dei dati ha consentito utilizzi controversi ben diversi da quelli per cui i dati erano stati raccolti in origine. Ma esempi di questo tipo li abbiamo visti anche in Italia dove, per combattere l’evasione fiscale, sono state approvate leggi che hanno consentito la creazione di immense banche dati per indagare (a che prezzo?) su ogni aspetto della vita privata delle persone.
Se quindi è vero che l’integrazione dei dati è essenziale per avere algoritmi più efficaci, è anche vero che l’integrazione dei dati rischia di sottoporre il cittadino ad un controllo totale e creare dei “mostri informativi” che ricordano la fine del mondo civile descritta da George Orwell in 1984.
Le norme che mancano
Molto più di quanto immaginiamo, le decisioni assunte dall’amministrazione pubblica dipendono da algoritmi. Per affrontare le questioni qui riassunte occorrono norme puntuali. Negli Stati Uniti manca una norma federale ma vi sono almeno un centinaio di disposizioni statali. In Francia una legislazione specifica esiste dal 2016 anche se ha molte lacune. In Gran Bretagna il governo ha promosso standard minimi di trasparenza per l’uso degli algoritmi. A livello europeo il regolamento Ue 2016/679 fissa alcuni principi basilari. In Italia, la questione delle decisioni pubbliche interamente automatizzate, è stata affrontata dal Consiglio di stato che, ancora una volta, si è reso protagonista da decisioni condivisibili in sostituzione di un legislatore politico assente e distratto.
I processi decisionali automatizzati possono rappresentare uno strumento prezioso per assicurare, finalmente, l’attuazione del principio di uguaglianza; ma occorre, prima che sia troppo tardi, affrontare le questioni riassunte e intervenire con una normativa specifica che eviti di trasformare una grande opportunità in un pericoloso boomerang sociale.
Il testo sintetizza la lezione magistrale che l’autore terrà all’università Statale di Rio de Janeiro - UERJ (Brasile) in occasione del conferimento della medaglia d’oro per la ricerca.
© Riproduzione riservata