Lunedì 17 ottobre andrà in onda una inchiesta di PresaDiretta dal titolo Armi di controllo di massa di Giulia Bosetti e Eleonora Tundo, su Rai3 alle 21:20. Eccone un’anticipazione
- L’utilizzo sempre più diffuso di tecnologie di face recognition - accelerato negli ultimi due anni di pandemia per evitare il contatto fisico - ha reso possibile la creazione di imponenti database con tutti i nostri dati biometrici.
- Poco si sa di chi siano i produttori leader di strumenti di identificazione digitale e i loro principali acquirenti, o di quale utilizzo si possa fare dei dati biometrici.
- Le stime di mercato prevedono che il settore della biometria raddoppi il suo fatturato passando da 33 miliardi di dollari del 2019 a 65,3 miliardi di dollari entro il 2024.
FOTO
Using mobile phone to track livestock data (Ikon Images via AP Images)
Tra gli stand delle più importanti fiere di armi del mondo, ci sono anche degli ospiti a sorpresa. Sono le grandi aziende della sorveglianza digitale e della biometria, un’industria che negli ultimi anni ha affinato il tiro, producendo sistemi informatici in grado di identificare le persone sulla base di una o più caratteristiche fisiologiche o comportamentali.
Il futuro è inscritto nel viso, nelle mani, nel corpo: lettura delle impronte, scansione dell’iride, riconoscimento facciale.
L’utilizzo sempre più diffuso di tecnologie di face recognition - accelerato negli ultimi due anni di pandemia per evitare il contatto fisico - ha reso possibile la creazione di imponenti database con tutti i nostri dati biometrici, ma poco si sa di chi siano i produttori leader di strumenti di identificazione digitale e i loro principali acquirenti, o di quale utilizzo si possa fare dei dati biometrici.
Le stime di mercato prevedono che il settore della biometria raddoppi il suo fatturato passando da 33 miliardi di dollari del 2019 a 65,3 miliardi di dollari entro il 2024.
La biometria, del resto, è il nuovo investimento dell’Unione europea, che ha deciso di sviluppare e utilizzare nuovi sistemi tecnologici per controllare e monitorare i movimenti delle persone nel continente. Tutte le persone, migranti e non.
L’agenzia europea
Al centro di questo gigantesco sistema c’è Eu-Lisa, l’agenzia europea per la gestione operativa dei sistemi di tecnologia informatica su larga scala, la seconda più finanziata d’Europa: 319,6 milioni di euro solo per il 2022.
Eu-Lisa possiede database con milioni di informazioni personali, identità e dati biometrici delle persone che attraversano le frontiere comuni in Europa.
La sede istituzionale è a Tallin, in Estonia, quella operativa a Strasburgo.
La missione è fornire le infrastrutture informatiche per la gestione dei confini, dei flussi migratori e della sicurezza interna dell’Unione europea.
Un’alleanza d’acciaio con Frontex, ma anche con la polizia Europol e l’unità di cooperazione giudiziaria Eurojust.
Eu-Lisa possiede oltre 17 milioni di impronte digitali per le richieste di visto, più i dati biometrici di cinque milioni e mezzo di richiedenti asilo e 100 milioni di alert del SIS, il Sistema Informativo Schengen.
La sfida futuristica lanciata da questa agenzia sconosciuta ai più ma centrale nelle politiche europee, è creare il più grande archivio biometrico del mondo, mettendo in rete tutti i database europei e i dati sensibili dei viaggiatori entro il 2023.
Per realizzare la grande rivoluzione tecnologica delle frontiere europee, tra aprile e novembre del 2020 Eu-Lisa ha siglato una serie di contratti con alcune delle più importanti società biometriche d’Europa, come le multinazionali francesi Sopra Steria e Idemia, per un totale di quasi un miliardo di euro.
Questo nuovo sistema sarà la pietra miliare della protezione dei confini europei: «uno strumento per combattere l'immigrazione irregolare e la criminalità transfrontaliera», si legge nella nota con cui le due società comunicano di essersi aggiudicate la gara d'appalto.
L’unico che ha cercato di saperne qualcosa di più è l’europarlamentare tedesco dei Verdi Patrick Breyer, che ha fatto un’interrogazione scritta a Eu-Lisa.
Nella risposta dell’Agenzia, si leggono i nomi delle altre società che, insieme a Sopra Steria e Idemia, si sono aggiudicate tre giganteschi contratti quadro e il lungo elenco dei complessi servizi e delle infrastrutture informatiche che dovranno fornire.
Ma il settore è così appetibile - si legge nel report EU border regime redatto dal gruppo della sinistra al parlamento europeo - che anche i grandi produttori di armi hanno deciso di ampliare la gamma dei loro prodotti per entrare nel business del controllo delle frontiere.
Come la francese Safran, attiva principalmente nel settore aerospaziale, che ha creato una società specializzata in sistemi biometrici alleandosi con l’azienda di elettronica Sagem e con la stessa Idemia, prima denominata Morpho.
I diritti a rischio
Il tema cruciale è l’impatto di queste tecnologie sui diritti dei cittadini europei, preoccupazione che il partito dei Verdi/Efa all’Europarlamento ha messo nero su bianco.
Nel rapporto Biometric and behavioural mass surveillance in eu member states pubblicato nel 2021 scrivono: «La “sorveglianza intelligente”, comprese le tecnologie di identificazione biometrica, se non controllate, potrebbero diventare sorveglianza biometrica di massa».
Non solo: manca «un’adeguata comprensione delle pratiche sulla privacy delle aziende che forniscono i sistemi».
Eppure, quando mettiamo in mano a società private i nostri dati biometrici, gli stiamo affidando il nostro patrimonio più prezioso.
Il nostro volto, i nostri occhi, le nostre mani, la nostra identità e la nostra unicità, i dati più sensibili che abbiamo.
«Manca una supervisione su come queste aziende gestiscono i nostri dati», spiega Gemma Galdon Clavell, analista e consulente Horizon, intervistata da PresaDiretta per l’inchiesta Armi di sorveglianza di massa, in onda su Rai3 il 17 ottobre: «Il problema con la biometria – continua – è che se la società che possiede i miei dati personali non li tratta in maniera responsabile e la scansione della mia faccia viene rubata, il danno che mi provochi è irreparabile. I pericoli sono enormi quando si ha a che fare con tecnologie digitali e biometriche».
A confermare queste preoccupazioni è Wojciech Wiewiórowski, Garante europeo per la protezione dei dati: «Esiste un reale pericolo nell’uso crescente dei sistemi biometrici, perché i dati possono essere raccolti e gestiti in modo da violare la privacy delle persone.Dobbiamo essere in grado di controllare come vengono gestiti i dati provenienti dai database dell'Unione europea, ma se per esempio le autorità europee stanno utilizzando dati provenienti da altri paesi, non c’è nessuna possibilità di effettuare controlli».
I dubbi dell’Onu
A novembre del 2020, il rapporto di Tendayi Achium, relatrice speciale delle Nazioni Unite sulle forme contemporanee di razzismo e discriminazioni, denuncia che i governi e le agenzie del mondo stanno sviluppando tecnologie digitali per il controllo delle frontiere in maniera pericolosa e discriminatoria, sottoponendo in particolare rifugiati, migranti e apolidi a violazioni dei diritti umani e utilizzando i loro dati per promuovere ideologie xenofobe e razzialmente discriminatorie.
«Quello che sta accadendo è che la biometria viene sviluppata e applicata innanzitutto sulle popolazioni più vulnerabili e questo è molto preoccupante», dice Gemma Galdon Clavell.
«Com’è possibile che ci mettiamo a giocare con tecnologie di cui non conosciamo davvero l’impatto utilizzandole su coloro che sono più deboli e non hanno la possibilità di difendere i propri diritti?».
Per Petra Molnar, avvocata e ricercatrice specializzata in migrazione, tecnologie e diritti umani «alcuni algoritmi, che gli studiosi definiscono algoritmi di oppressione, per testare la tecnologia utilizzano i migranti come cavie da laboratorio».
E in queste sperimentazioni, la possibilità che le tecnologie commettano degli errori è altissima.
La responsabilità dell’algoritmo
«Quando un algoritmo o un sistema decisionale automatizzato commettono un errore – continua – le conseguenze nel campo dell’immigrazione possono essere di enorme portata. È già accaduto che delle persone venissero ingiustamente deportate a causa di un errore. Più di settemila studenti sono stati allontanati dal Regno Unito per colpa di un algoritmo difettoso che li accusava di aver imbrogliato in un test di acquisizione linguistica. Cosa succede se un rifugiato viene rimandato per sbaglio nel paese d’origine in cui viene perseguitato? Chi è il responsabile? Il progettista dell’algoritmo, il programmatore, il funzionario dell'immigrazione che ha usato l'algoritmo? O l’algoritmo stesso?».
Ecco le domande che i tribunali dovranno affrontare in futuro, quando le persone inizieranno a contestare gli errori commessi dagli algoritmi.
© Riproduzione riservata