- L’artista Paolo Cirio ha creato una installazione con mille volti di poliziotti francesi riconosciuti da un software nelle immagini delle proteste: è stato censurato dal governo d'oltralpe ma il suo scopo è sempre stato mettere in guardia dal rischio delle nuove tecnologie di sorveglianza di massa.
- L’Europa è diventata il terreno di sperimentazione e sviluppo di tecnologie della sorveglianza anche molto economiche, un potere invisibile che può avere conseguenze inattese.
- Dalla riflessione dell'artista è nata a ottobre la campagna Ban Facial Recognition Europe a cui si è aggiunta quella di associazioni per i diritti digitali Reclaim your face.
Una delle immagini più iconiche catturate durante le rivolte di Hong Kong mostra alcuni manifestanti mentre cercano di abbattere un lampione su cui sono installate delle videocamere in grado di identificare in tempo reale i volti dei passanti.
Il contesto della fotografia è quello di un paese in cui da diversi mesi migliaia di cittadini, soprattutto i più giovani, si ribellano contro il governo cinese che ne vuole limitare libertà e diritti, dove le manifestazioni vengono duramente represse dalle autorità, in grado di identificare e rintracciare gli attivisti anche grazie alle molte telecamere con riconoscimento facciale installate nelle strade della città.
L’Europa campo di sperimentazione
La fotografia, dopo aver fatto il giro del mondo, ha suscitato indignazione e aperto almeno parzialmente il vaso di pandora sui pericoli derivanti dai sistemi di sorveglianza di massa; tuttavia, il fatto che sia successo a migliaia di chilometri da noi, in un paese con una democrazia limitata - per usare un eufemismo - ha fatto prevalere la sensazione che comunque da noi non potrebbe mai accadere qualcosa di simile.
Niente di più sbagliato, l’Europa non è affatto immune dal virus della sorveglianza di massa, anzi, come vedremo, è uno dei più prolifici campi di sperimentazione e sviluppo di queste tecnologie.
Per questo motivo a fine settembre è stata lanciata una campagna pubblica intitolata «Ban Facial Recognition Europe!» che, come il nome stesso suggerisce, chiede alle istituzioni europee di vietare l’uso di queste tecnologie così invasive nel nostro continente.
Un milione di facce
Il principale promotore della campagna è Paolo Cirio, artista torinese che vive da oltre dieci anni a New York e che da sempre utilizza il linguaggio artistico per fini sociali.
Già con Face to Facebook, una delle sue prime opere del 2011, Cirio si è appropriato di un milione di profili Facebook, pubblicandone 250 mila su un finto sito di incontri da lui sviluppato, in cui i vari profili venivano ordinati a seconda delle espressioni dei loro visi dopo averli analizzati con un algoritmo di riconoscimento facciale. Il suo obiettivo era di dimostrare quanto fosse facile impossessarsi dell’identità virtuale di chiunque, esponendola senza alcun tipo di protezione o filtro in uno spazio web pubblico.
L’esperimento ha suscitato l’interesse di molti critici e media in tutto il mondo, oltre a undici minacce legali, cinque minacce di morte e diverse lettere degli avvocati di Facebook, ma non è riuscito a ostacolare l’avanzata e il progresso delle tecnologie di riconoscimento facciale.
La sorveglianza sui sorveglianti
L’artista ci riprova oggi, con un’opera ancora più provocatoria, Capture, composta dai volti di migliaia di poliziotti francesi. Ha infatti raccolto mille immagini pubbliche di poliziotti ritratti in fotografie scattate durante le proteste in Francia e le ha elaborate con un software di riconoscimento facciale, per poi inserirle in un database online. Cirio ha anche stampato alcune foto di poliziotti in formato manifesto, attaccandole sui muri di Parigi per renderle visibili a tutti in forma di street art.
Come già nove anni fa, anche in questo caso le reazioni ufficiali non si sono fatte attendere: l’inaugurazione prevista il 15 ottobre in occasione del festival artistico «Panorama 22» a Lille è stata censurata a seguito dell’intervento del Ministro degli interni francese Gérald Darmanin che ha richiesto in prima persona la cancellazione dell’esposizione e la rimozione delle foto degli agenti.
Una provocazione evidentemente troppo forte per il governo francese, che però a detta dell’artista non ha colto il vero spirito dell’opera. L’intento non è infatti quello di mettere in pericolo degli agenti di polizia mostrandone in pubblico i volti, quanto quello di mettere in guardia le istituzioni e le forze dell’ordine sul pericolo che deriva dalla diffusione di tecnologie così potenti e semplici da utilizzare come il riconoscimento facciale. Se un artista, per quanto indubbiamente bravo e competente nella scrittura di software, è stato in grado di raccogliere e riconoscere migliaia di volti di poliziotti, la stessa cosa potrebbero farla soggetti con intenzioni ben peggiori.
È proprio questo lo spirito dell’opera secondo Paolo Cirio, il far comprendere la pericolosità insita nella diffusione di queste tecnologie, che sono equiparabili a vere e proprie armi, per cui però, al momento, non esiste alcuna seria regolamentazione.
La scelta della polizia come soggetto dell’opera non è certo casuale, Cirio si è infatti reso conto di come al progredire della diffusione delle tecnologie di riconoscimento facciale, le forze dell’ordine abbiano contestualmente adottato misure in grado di celarne sempre più l’identità. Un futuro in cui per un poliziotto è possibile riconoscere immediatamente un manifestante, ma per un manifestante è impossibile riconoscere un poliziotto, è un futuro che fa paura e che non è certo in linea con i valori di libertà e democrazia di cui l’Europa è avamposto.
«Rendere visibile l’invisibile»
Compito dell’artista, secondo Cirio, è di «rendere visibile l’invisibile» e quando si parla di sistemi di sorveglianza di massa questo concetto è tanto più importante, dato ci troviamo in una situazione in cui tutti sono “nudi” di fronte al sorvegliante, tranne il sorvegliante che non è visibile da nessuno.
Una battaglia che fortunatamente l’artista non si trova a combattere da solo: una nuova iniziativa gemella è stata recentemente lanciata da alcune organizzazioni della società civile europea, con obiettivi molto simili. La campagna Reclaim Your Face: Ban Biometric Mass Surveillance promossa da associazioni come European digital rights (Edri), Article 19 e l’italiana Hermes Center, chiede infatti che «le persone non siano più trattate come topi da laboratorio manipolati, oggettivati e mercificati» e che dunque l’Unione europea imponga un divieto permanente delle tecnologie di sorveglianza di massa.
Entrambe le iniziative si rivolgono alle istituzioni comunitarie perché l’Europa, come detto, non è affatto immune all’utilizzo di questo tipo di tecnologie di sorveglianza, che anzi sono già più diffuse di quanto pensiamo.
Alcuni degli esempi più noti riguardano la sperimentazione avviata nel 2018 in Germania nella stazione di Berlin-Südkreuz, dove sono state installate telecamere con riconoscimento facciale i cui risultati tanto positivi hanno spinto il Ministro degli Interni Horst Seehofer a richiedere di allargarne l’utilizzo ad altre 134 stazioni ferroviarie e a 14 aeroporti tedeschi.
In Francia la polizia francese già da alcuni anni ha a disposizione strumenti in grado di riconoscere i volti delle persone che attraversano degli spazi pubblici e di incrociarli con l’enorme database Taj (traitement des antécédents judiciaires) in cui sono conservate milioni di foto di cittadini con precedenti penali.
Anche in Italia, come rivelato da una recente inchiesta sulla città di Como, diversi comuni si sono lasciati convincere della bontà di queste tecnologie, in grado secondo i loro promotori di aumentare il livello di sicurezza nelle città.
A questo punto è necessario chiedersi perché le tecnologie di riconoscimento biometrico si stanno diffondendo così rapidamente anche in Europa e, soprattutto, perché questo comporta un problema per tutti i cittadini.
Evidentemente la tecnologia ha assunto oggi più che mai un ruolo predominante nello sviluppo e nell’avanzamento delle nostre società, sia che si creda nel determinismo tecnologico, ovvero nella teoria secondo cui è l'innovazione tecnologica a giocare il ruolo principale nei processi di mutamento sociale, sia che, più banalmente, si veda nella diffusione di nuove tecnologie un mero adeguamento allo «spirito del tempo». Ad ogni problema è imperativo rispondere con una nuova tecnologia, che sia possibilmente la più nuova e innovativa che si può trovare sul mercato. Non a caso una delle iniziative più importanti intraprese da praticamente tutti gli Stati che si sono trovati ad affrontare la pandemia è stato lo sviluppo di app per il contact tracing, nella - oggi possiamo dire vana - speranza che queste da sole fossero in grado di rispondere al problema.
La diffusione di nuove tecnologie in ogni ambito del vivere umano (professionale, didattico, privato) è un treno in corsa, che non può essere fermato, ma di cui sarebbe opportuno domandarsi almeno il percorso e soprattutto la destinazione.
Uno dei settori in cui ricerca, sperimentazione e adozione di nuove tecnologie altamente invasive hanno subito un velocissimo avanzamento è proprio quello della sicurezza: strumenti di sorveglianza di massa, in particolare le telecamere che permettono il riconoscimento facciale, sono già ampiamente diffusi in tutta Europa come vedremo, senza che vi sia stato un dibattito pubblico sulla loro accettazione o un’analisi condivisa sul loro potenziale impatto sociale.
Per comprendere alcuni dei pericoli che questi sistemi di sorveglianza di massa e di riconoscimento biometrico portano con sé e perché artisti come Paolo Cirio e movimenti della società civile li osteggiano con tanta forza, bisogna prima di tutto lasciarsi alle spalle il tipico ragionamento “se io non ho niente da nascondere, perché dovrei essere preoccupato?”. I motivi per preoccuparsi in realtà sono molti, il più lampante è perfettamente espresso da Matteo Giglioli, professore di scienze politiche e sociali dell’Università di Bologna, nel suo saggio I labirinti della sorveglianza informatica: «non avere segreti significa semplicemente il privilegio di non appartenere a uno dei gruppi subalterni contro cui la sorveglianza è stata tradizionalmente usata con intento repressivo».
Non illudiamoci, Hong Kong non è poi così lontana come ci piacerebbe pensare.
Inoltre, i pericoli e i danni creati da queste tecnologie non rimangono confinati solo nella sfera della repressione del dissenso, e quindi legati al loro utilizzo da parte di regimi autoritari, ma si ripercuotono anche nella sfera sociale, dove una diffusione pervasiva e normalizzata di strumenti di sorveglianza induce tutti a comportarsi in maniera innaturale, sapendosi spiati. Creare la falsa percezione che essere osservati e analizzati in ogni momento sia accettabile non può che portare ad una società basata sul sospetto e la sfiducia reciproca.
Il potere invisibile
Quando sul finire del Settecento Jeremy Bentham progetta il famoso Panopticon, il carcere in cui le guardie hanno la possibilità di sorvegliare di nascosto i detenuti senza che questi abbiano la possibilità di sapere se sono effettivamente osservati o meno, aveva in mente proprio questo argomento: il “potere invisibile” in grado di pervàdere la società dal suo interno e non più dall’alto è più efficace del classico potere immediatamente riconoscibile e visibile.
In questo senso bisogna anche considerare che se due secoli fa era impossibile prevedere un sistema di sorveglianza universale, oggi le tecnologie e i costi ridotti delle stesse invece lo permettono: basti pensare che il sistema di telecamere con riconoscimento facciale adottato dalla città Como è costato qualche decina di migliaia di euro. Costi irrisori se comparati al potere che conferiscono a chi ha la possibilità di “sedersi dietro la telecamera”.
È necessario capire che le tecnologie di riconoscimento facciale non sono affatto neutre, non hanno impatto solo sul problema per cui sono vendute, cioè il controllo della criminalità, ma al contrario portano con sé molte conseguenze negative su cui si dovrebbe riflettere molto più approfonditamente prima di deciderne l’utilizzo.
Come detto, risultano determinanti nella repressione del dissenso in regimi autoritari, sono in grado di alterare i comportamenti umani, ma non solo: le cosiddette unintended consequences, cioè le conseguenze inattese che non sono state ancora valutate in maniera approfondita, possono generare problemi ben più grandi di quelli che intendono invece risolvere.
© Riproduzione riservata