- L’Europa deve decidere in che modo regolare l’intelligenza artificiale, come combinare sviluppo tecnologico e tutela dei diritti.
- I governi europei hanno preso in esame la proposta della Commissione e per ora hanno fatto una scelta: ampia libertà alle tecnologie se riguardano la sicurezza nazionale.
- Il Consiglio dell’Ue pensa a eccezioni al divieto del riconoscimento biometrico da parte delle forze dell’ordine e a deroghe per quel che riguarda le applicazioni dell’Ai nell’ambito della sicurezza: i governi sostengono che è loro prerogativa, perciò fuori dal futuro regolamento.
I governi europei, raccolti nel Consiglio dell’Ue, finora hanno fatto una scelta, sul grado di libertà da garantire allo sviluppo di tecnologie di intelligenza artificiale. La scelta è concedere ampia libertà se le tecnologie riguardano la sicurezza nazionale.
I governi europei hanno iniziato a lavorare alle modifiche della proposta di regolamento sull’intelligenza artificiale, il cosiddetto AI Act, pubblicato il 21 aprile 2021 dalla Commissione europea. Il testo regolerà lo sviluppo di questa tecnologia nei settori più diversi e per questo è guardato a vista da governi, aziende e società civile.
Da un lato c’è la necessità di avere una norma che non blocchi lo sviluppo tecnologico e dall’altro che non cali l’attenzione sulla tutela dei diritti fondamentali.
Questa prima proposta del Consiglio, prodotta quando ancora la presidenza era quella slovena, presenta alcune modifiche degne di nota e anticipa molti punti di discussione.
Uno tra tutti è la mancata applicazione delle norme e tutele in discussione quando l’uso dell’intelligenza artificiale avviene nel settore della sicurezza nazionale, con potenziali risvolti negativi per i diritti fondamentali.
Un approccio basato sul rischio
Non potendo trattare l’intelligenza artificiale in modo settoriale, vista la sua possibile applicazione in ogni campo, la Commissione ha scelto peso per un approccio basato sul rischio.
La proposta prevede dunque quattro gradi di rischio: un rischio inaccettabile, un alto rischio, un rischio limitato e un rischio minimo.
Uno degli articoli più discussi è l’Articolo 5 che identifica la categoria delle applicazioni in cui il rischio è considerato inaccettabile, salvo alcune eccezioni.
Una importante modifica proposta dal Consiglio è l’estensione del divieto di «social scoring» agli attori privati, oltre che alle autorità pubbliche. Il social scoring consiste in un punteggio che viene dato alle persone in base ai loro comportamenti personali.
I fan della serie distopica Black Mirror l’hanno visto applicato nel primo episodio della terza stagione intitolato “Caduta libera”. Per tutti gli altri si può prendere un volo per la Cina dove, anche grazie a milioni di telecamere installate nelle strade, azioni come l’attraversamento della strada con il semaforo rosso comportano l’abbassamento del proprio punteggio sociale che, quando troppo basso, potrebbe impedire di prenotare un aereo o ridurrebbe la velocità del proprio accesso ad internet.
Deroghe per la sicurezza nazionale
Se questa è senza dubbio una buona notizia, lo è meno la proposta relativa al settore della sicurezza nazionale. Le eccezioni al divieto del riconoscimento biometrico da parte delle forze dell’ordine si allarga perché la minaccia sostanziale «per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico» non dovrà più essere «imminente».
Si potrebbe dire dunque che nel caso ci sia un presunto terrorista in Europa si potrà ricorrere all’uso di questa tecnologia altamente invasiva anche se il sospetto non sia in procinto di sferrare un attacco, circostanza che lascia adito a larghe interpretazioni sui casi d’uso.
Positivo è che in caso d’urgenza e in mancanza di una autorizzazione preventiva all’autorità giudiziaria, la richiesta dell’autorizzazione dovrà essere immediata e non potrà più essere successiva all’uso.
Il Consiglio ha poi ritenuto che, rientrando le attività di sicurezza nazionale tra le prerogative degli stati membri, le applicazioni di intelligenza artificiale esclusivamente in questo settore non debbano rientrare nel perimetro del Regolamento.
Diritti compromessi
Questa scelta può avere degli effetti indesiderati per la tutela dei diritti fondamentali. Il rischio è che le garanzie richieste dalla norma nello sviluppo di queste tecnologie non siano tenute in considerazione sin da subito, potenzialmente aumentando i margini di errore in fase di applicazione.
Nella lettera inviata al Parlamento europeo e al Consiglio da 120 organizzazioni internazionali in prima linea nella tutela dei diritti fondamentali si chiede di impedire qualsiasi uso del riconoscimento biometrico negli spazi pubblici, anche se effettuato dalle forze dell’ordine.
Eliminare quelle garanzie porterebbe ad avere ancora più errori di quelli che già esistono, di fatto rendendo i cittadini più insicuri con più falsi arresti, spesso a danno dei soggetti più indifesi come i migranti. A chiedere un divieto di questi usi c’è già una campagna europea, Reclaim your face, che ha raccolto oltre 65mila firme e punta al milione.
Da gennaio è la Francia ad avere la presidenza di turno del Consiglio dell’Ue e c’è da scommettere che nel settore della sicurezza nazionale, vista l’esperienza francese col terrorismo e le elezioni imminenti, Macron non faccia passi indietro rispetto a questa prima versione.
© Riproduzione riservata