L’intelligenza artificiale è uscita da tempo dai libri di fantascienza per diventare parte integrante della nostra quotidianità, ma lo sviluppo e l’applicazione incontrollati dell’Ai portano con sé non pochi rischi. Come sa bene l’Unione europea.

A giugno il parlamento ha approvato la posizione negoziale sulla legge sull’intelligenza artificiale, dando inizio alla cosiddetta fase dei triloghi, le negoziazioni con Commissione e Consiglio per la stesura del testo definitivo dell’Ai Act. L’Ue, entro fine anno, potrebbe essere la prima istituzione al mondo ad avere una norma che regolamenti l’intelligenza artificiale, ma non tutti ne beneficeranno allo stesso modo. Il regolamento infatti è pensato per tutelare i diritti dei cittadini europei, ma non prevede lo stesso grado di protezione per le persone migranti, su cui già da tempo si riversano gli effetti più negativi dell’uso di sistemi basati sull’Ai.

L’intelligenza artificiale è una componente fondamentale delle politiche di controllo della migrazione e di fortificazione delle frontiere messe in campo dall’Unione, ma fino ad oggi il suo uso in questo ambito è stato scarsamente regolamentato. L’Ai Act attualmente in discussione riempie dunque un vuoto normativo, ma presenta diverse criticità. Prima fra tutte quella relativa al calcolo del rischio.

La violazione dei diritti

Il testo approvato dal parlamento divide i sistemi di Ai in quattro categorie sulla base del rischio che pongono ai diritti fondamentali, per cui vieta l’impiego delle tecnologie considerate troppo lesive e prevede invece dei controlli più o meno stringenti per quelle che rappresentano un rischio alto, medio o basso. Con questo approccio, dunque, l’Ue riconosce che uno o più diritti saranno violati da certe tecnologie, ma ne consente ugualmente l’impiego.

Ciò che conta in questa valutazione in realtà non è tanto la tecnologia in sé, quanto il contesto di utilizzo ed è qui che ci si imbatte nelle prime zone grigie del regolamento. «I sistemi di identificazione biometrica in contesto pubblico, come ad esempio il riconoscimento facciale, sono stati vietati negli spazi pubblici a libero accesso per evitare che si arrivi alla sorveglianza di massa o alla cancellazione dell’anonimato in spazi pubblici», spiega Caterina Rodelli, analista presso l’organizzazione di difesa dei diritti civici digitali Access now. «Il divieto però non dovrebbe valere per i confini, che sono generalmente qualificati come aree militarizzati o comunque non pubbliche a libero accesso. Questo è un punto altamente problematico perché l’Ai per processare dati biometrici è largamente impiegata nelle politiche migratorie dell’Ue».

Altre tecnologie invece non potranno essere utilizzate in nessun caso, quantomeno nel contesto europeo. L’Ue punta a proibire il ricorso a sistemi di riconoscimento delle emozioni, usato per dedurre se una persona sta dicendo la verità sulla base dei dati biometrici, e quelli di categorizzazione biometrica, in grado di categorizzare un individuo sempre attraverso i dati biometrici, come ad esempio la voce. Entrambi i sistemi sono già stati usati da alcuni paesi Ue, tra cui Grecia e Germania, per valutare le domande di asilo, ma in caso di approvazione definitiva dell’Ai Act dovranno essere dismessi.

Altre tecnologie hanno invece ottenuto l’approvazione del parlamento nonostante l’alto rischio di violazione dei diritti. «I sistemi di profilazione e di calcolo del rischio automatico, uno dei pilastri della digitalizzazione delle politiche migratorie, continueranno a essere usati per decidere se una persona che richiede di entrare legalmente in Europa potrà farlo o meno. In futuro saranno impiegati anche per processare le domande di asilo», sottolinea Rodelli. «Eppure è stato più volte dimostrato che il loro uso ha comportato una discriminazione diretta o indiretta di alcune categorie di persone». Altro sistema classificato come ad alto rischio ma non proibito è quello predittivo dei movimenti migratori, impiegato per prevedere i futuri flussi di migranti così da gestire meglio le politiche di accoglienza. Questo stesso strumento però può essere usato anche per bloccare i migranti e fortificare meglio le frontiere europee una volta individuate le principali direttrici dei prossimi arrivi.

Trasparenza e mercato

Un altro aspetto coperto dal regolamento è quello della trasparenza. Chi usa un sistema Ai ad alto rischio è obbligato a condurre una valutazione dell’impatto che questo avrà sui diritti fondamentali e dovrebbe decidere se impiegarlo o meno a seconda del risultato. L’Ai Act prevede anche la creazione di un database accessibile al pubblico in cui deve essere riportato il risultato di quella stessa valutazione, ma le forze di polizia e le autorità migratorie stanno cercando di essere esonerate da questo obbligo. 

Tra le zone grigie dell’Ai Act rientra anche il diritto a fare ricorso contro l’uso delle tecnologie approvate dall’Ue. La norma però riconosce questo diritto solo ai singoli, mentre non prevede la possibilità per le associazioni civili di presentare ricorso per conto di terzi né di portare avanti delle class action, utili soprattutto nel caso di esposto contro i sistemi predittivi che hanno un impatto su un alto numero di soggetti.

Un ultimo punto su cui l’Ue è chiamata a decidere riguarda la possibilità di esportare i sistemi messi al bando. Le aziende che li hanno realizzati, usando anche i fondi europei, hanno tutto l’interesse a vendere i loro prodotti quantomeno sul mercato extra-Ue, ma il testo approvato dal parlamento ne vieta in maniera assoluta l’esportazione. La versione dell’Ai Act presentata dal Consiglio però non prevedeva questa limitazione, quindi bisognerà vedere quale delle due posizioni avrà la meglio nelle prossime fasi negoziali. Vietare l’export sarebbe un importante presa di posizione dell’Ue e si eviterebbe che tecnologie così tanto lesive dei diritti fondamentali finiscano nelle mani di quei governi repressivi a cui l’Ue da tempo delega il controllo delle frontiere.

© Riproduzione riservata