Parlamento, Consiglio e Commissione europea si sono accordati sabato sul testo finale dell’Ai Act, il primo regolamento sull’intelligenza artificiale, ma a giorni di distanza non è ancora nota la versione finale su cui le tre autorità hanno apposto la loro firma. Sulla base delle informazioni già note, però, è possibile fare una valutazione di alcuni aspetti particolarmente problematici del regolamento come quello del controllo della migrazione e della sicurezza nazionale. Due argomenti in cui ciò che conta saranno più le eccezioni, anziché le regole.

Prima di tutto bisogna ricordare che l’Ai Act divide i sistemi di Intelligenza artificiale in quattro categorie sulla base del rischio che questi pongono ai diritti fondamentali, arrivando a vietare l’impiego delle tecnologie considerate troppo lesive e stabilendo invece dei controlli più o meno stringenti per quelle a rischio alto, medio o basso. Il regolamento dunque prevede un approccio neutrale nei confronti della tecnologia, preferendo effettuare una valutazione sulla base del contesto di utilizzo.

Arrivare al testo finale non è stato semplice, come dimostrano le 36 ore di negoziato, ma alla fine è stato raggiunto un compromesso tra la posizione del Consiglio, meno stringente, e quella del parlamento, che aveva invece allargato il raggio di azione del regolamento. «L’Ue è riuscita a mettere al bando il sistema di riconoscimento delle emozioni, ma solo nei contesti come quello lavorativo o dell’istruzione, mentre è stata concessa un’esenzione nei confronti del controllo delle migrazioni», spiega Caterina Rodelli, analista presso l’organizzazione di difesa dei diritti civici digitali Access now. «L’articolo 5 del regolamento afferma che questi sistemi comportano una violazione irreversibile dei diritti umani, senza alcuna possibilità di mitigazione. Eppure questa violazione è considerata inaccettabile in alcuni contesti, ma non in quello migratorio. È stato lanciato un messaggio politico importante, ossia che la vita di alcune persone vale più di quella di altre».

Ecco allora che torna in gioco BorderCtrl, un sistema finanziato con 4,5 milioni all’interno del programma di ricerca europeo Horizon 2020 e che tramite la lettura delle emozioni dovrebbe capire se una persona sta dicendo o meno la verità. Un moderno poligrafo ben poco affidabile secondo gli esperti e a cui verranno assegnati compiti estremamente sensibili e con un impatto irreversibile a livello di diritti umani, come quello sulla concessione o meno dell’asilo.

I database

A far discutere è anche il compromesso raggiunto sui sistemi di Ai utilizzati per la creazione dei database contenenti i dati dei migranti. Inizialmente le banche dati che consentono l’identificazione delle persone e la valutazione della loro pericolosità attraverso questi dati erano stati esclusi dall’Ai Act, ma il parlamento ha riportato l’argomento al centro delle negoziazioni. Seppur con alcune agevolazioni.

Come spiega Rodelli, chi utilizza questi database avrà probabilmente a disposizione un periodo di sei anni per adeguarsi alle nuove leggi. «L’esenzione interessava sistemi come quello di informazione e autorizzazione ai viaggi (Etias) e dei visti (Vis) e quelli che usano i dati statistici estratti da questo tipo di database per fare delle previsioni sui movimenti migratori. Secondo l’Ai Act dovranno rispettare le nuove regole solo entro il 2030, se considerati ad alto rischio».

Il parlamento ha anche reso obbligatoria la valutazione dell’impatto sui diritti fondamentali prima che il sistema ad alto rischio venga utilizzato, ma non è ancora chiaro se questo obbligo sarà valido per tutte le autorità pubbliche, soprattutto quelle che si occupano di asilo e migrazione.

Un’altra questione spinosa è proprio quella della trasparenza. Chi utilizza sistemi ad alto rischio deve inserire all’interno di un database pubblico le informazioni a riguardo, ma il Consiglio ha sempre insistito perché la polizia e le autorità che si occupano di migrazione, asilo e controllo delle frontiere venissero escluse dall’obbligo.

Secondo Rodelli, pur in assenza del testo finale è quasi certo che sia stata creata un’esenzione di fatto, per cui le informazioni contese saranno caricate su una sezione del database non accessibile al pubblico. In questo modo si limita la trasparenza e lo scrutinio pubblico, rendendo impossibile monitorare come queste autorità usino i sistemi ad alto rischio. «In questo modo si codifica un comportamento abusivo già esistente, come nel caso di Frontex», spiega Rodelli.

«SeaWatch ha accusato l’Agenzia europea di non essere trasparente a causa della mancanza di informazioni su un respingimento in cui è stato usato un drone, che potenzialmente potrebbe ricadere nell’Ai Act». Ma che rischia di restare fuori dagli obblighi di trasparenza. «Si consolida l’idea che ciò che queste autorità fanno rientra nell’ambito della sicurezza pubblica, coperta da segreto e su cui non è mai stata concordata una definizione comune».

Polizia predittiva

Tra i sistemi proibiti invece sono stati inseriti l’identificazione biometrica in diretta negli spazi pubblici e quelli di predizione del crimine sulla base delle caratteristiche individuali. Ma anche qui il compromesso raggiunto non è stato dei migliori. Nel primo caso ci sono diverse eccezioni che non hanno convinto gli attivisti, mentre sarà ancora possibile provare a predire i crimini su base geografica.

Un passo avanti rispetto alla totale assenza di divieti, ma una cattiva notizia per le periferie, aree solitamente ad alta presenza migratoria e in cui si assisterà probabilmente a un aumento dei controlli di polizia sulla base di programmi che in passato si sono dimostrati fallaci e lesivi dei diritti fondamentali.

Ultimo punto dolente riguarda poi l’export. I sistemi classificati come inaccettabili all’interno dell’Ue potranno essere venduti sul mercato estero, a ulteriore dimostrazione che i diritti fondamentali valgono sono all’interno dei confini europei.

© Riproduzione riservata