Gli esempi che seguono mirano soprattutto a chiarire una cosa: chi pensa di potere fare a meno dell’IA e di conseguenza di non doversene occupare perché l’IA non lo riguarda, si sbaglia. L’intelligenza artificiale è già entrata da tempo nella nostra quotidianità, e anche chi si vanta di non usarla, sappia che molto probabilmente l’IA si è già interessata di lui. L’indirizzo scritto a mano sulle buste delle nostre lettere o cartoline viene letto da un sistema di riconoscimento ottico dei caratteri, gestito dall’IA alle poste. Il nostro smartphone distingue i volti e li mette a fuoco meglio di una qualsiasi altra macchina fotografica quando scattiamo ed è anche capace di riconoscere quei volti all’interno dell’enorme quantità di foto da noi memorizzate; inoltre impara le nostre abitudini e con l’utilizzo frequente che ne facciamo – in media dalle cinque alle dieci ore al giorno – è da tempo divenuto un elemento essenziale della nostra vita quotidiana. E il nostro cellulare è pieno di intelligenza artificiale.

Le piattaforme digitali a cui accediamo attraverso gli smartphone (o attraverso altri dispositivi come tablet o laptop) per utilizzare i social media o i motori di ricerca, per fare acquisti o per chattare, per ricevere e inviare email e per molto altro ancora, si avvalgono dell’intelligenza artificiale al fine di conoscere le nostre abitudini e di conseguenza per farci arrivare della pubblicità e dei messaggi mirati e personalizzati.

I like che mettiamo su Facebook, come anche ogni clic che facciamo su altre reti sociali online, rivelano molto della nostra personalità (Youyou et al. 2015). Visto poi che la pubblicità personalizzata funziona meglio della pubblicità generica (Matz et al. 2017) e che di fatto la pubblicità rappresenta il modello di business per eccellenza di tutte le principali piattaforme a uso gratuito presenti in Internet (panoramica in Spitzer 2018) i soldi in gioco sono davvero tanti: attualmente Google, Meta (ex Facebook) e Amazon detengono congiuntamente una quota di mercato pari circa al sessanta per cento di tutta la pubblicità digitale, a fronte di una dimensione complessiva del mercato internazionale che si aggira attorno ai seicento miliardi di dollari statunitensi l’anno (Statista 2023a, b).

Sicurezza interna: predictive policing

Il crescente grado di tecnicità e di digitalizzazione della nostra società ha portato a notevoli cambiamenti anche all’interno del settore della sicurezza pubblica. Alle telecamere di sorveglianza ormai ci siamo quasi abituati, anche se negli stati dell’Unione europea non è ammesso procedere in modo automatizzato al riconoscimento delle persone presenti nelle immagini oppure a una valutazione personale delle immagini stesse.

In Cina invece le cose sono diverse: i responsabili del governo ritengono evidentemente che per mantenere la sicurezza interna di un Paese con circa 1,4 miliardi di persone sia necessario l’uso di cinquecento milioni di telecamere che nel giro di pochi minuti permettono di identificare una qualsiasi persona.

In Germania le autorità preposte alla pubblica sicurezza dei singoli Bundesländer (gli Stati federali tedeschi) e gli operatori dei servizi della sicurezza privata ricorrono ai sistemi assisiti dall’intelligenza artificiale solo per farsi aiutare a essere più efficienti ed efficaci nel proprio lavoro. Ad altri scienziati delle più disparate discipline, come sociologia, geografia, giurisprudenza e informatica, è poi lasciato il compito di valutare e analizzare in modo sistematico le esperienze fatte dalla polizia con i metodi di indagine assistita dall’IA.

L’acuirsi dei pregiudizi, le questioni legali relative alle condanne pregiudiziali, nonché i dilemmi di principio che riguardano la statistica (campo oscuro) e i quesiti etici (determinismo e colpa) sono tutti problemi che per il momento restano ancora senza risposta, nonostante il rapido sviluppo di tecnologie sempre più sofisticate ed efficienti.

In Gran Bretagna l’intelligenza artificiale viene utilizzata dalla polizia non solo per combattere il crimine ma anche per fare della predictive policing, un tipo di sorveglianza predittiva che cerchi cioè di prevedere in anticipo certi atti criminali prima che vengano compiuti. Il termine predittivo può sembrare alquanto pomposo e ricorda un po’ film fantascientifici quali per esempio Minority Report

Si tratta però di indagini effettivamente utilizzate anche negli USA, in Svizzera e nella metà dei Bundesländer tedeschi. In Renania settentrionale-Vestfalia, per esempio, la predictive policing è stata deliberata nel 2017 ed è attualmente in vigore. Sulla base dell’analisi di ingenti quantitativi di dati che riguardano i crimini commessi in passato, l’intelligenza artificiale aiuta la polizia nel determinare la probabilità che certi reati si possano ripetere.

L’obiettivo è quello di rendere più mirato il lavoro della polizia: i dati storici a disposizione servono a delimitare – in senso letterale – il campo di ricerca delle forze dell’ordine: in determinati quartieri (per esempio nei quartieri residenziali di sole villette) vivono persone benestanti che in certi periodi dell’anno (durante le vacanze) non sono quasi mai in casa. Se la polizia riuscisse a sapere con anticipo dove generalmente si compiono più effrazioni, potrebbe decidere di pattugliare con maggiore intensità la zona.

La predictive policing si limiterebbe in tal caso a identificare con anticipo solo il luogo e il tempo, non i colpevoli. Negli Usa invece il metodo viene anche utilizzato per identificare le persone, seppure con scarso successo. (Bode et al. 2017; Knobloch 2018; Bode & Seidensticker 2020). Un disegno di legge del 21 aprile 2021 in fase di dibattito presso la Commissione europea dovrebbe proporre di proibire la predictive policing all’interno di tutta l’Unione europea.

Quando si parla di intelligenza artificiale e di criminalità non si possono ignorare tematiche importanti quali l’abuso che viene fatto dell’IA e un suo utilizzo illecito. Un esempio per tutti è quello che riguarda le cosiddette telefonate shock: la polizia ne parla da anni mettendo in guardia la popolazione, soprattutto le persone più anziane. Chi chiama è qualcuno che si finge un amico di un parente del chiamato (tipicamente un figlio o un nipote). Il finto parente sostiene di avere bisogno di soldi per uscire di prigione su cauzione, dopo essere stato arrestato per avere provocato un grave incidente. L’amico in questione passerebbe a prendere il denaro… Oppure talvolta chi chiama si spaccia direttamente per il parente stretto del chiamato: «Sono disperato, mi potresti aiutare, mi occorrono subito dei soldi», dice con una voce alterata dal pianto cercando di conquistare la fiducia del chiamato.

Con l’aiuto dell’IA la voce all’altro capo in futuro potrebbe anche essere davvero identica a quella del vero parente stretto; in tal caso sarebbe ancora più difficile riconoscere l’inganno. Le forze dell’ordine ipotizzano che potranno essere messi in circolazione anche dei video fasulli con le richieste d’aiuto. E mettono in guardia contro i tentativi di ricatto che si avvalgono di foto e di video pornografici che sembrano veri ma che invece sono falsi.


Brano tratto da “Intelligenza artificiale. Opportunità e rischi di una rivoluzione tecnologica che sta cambiando il mondo” in libreria dal 17 settembre

Pubblicato da Casa Editrice Corbaccio ©2024 Garzanti S.r.l. Milano
Copyright © 2023 Verlagsgruppe Droemer Knaur GmbH & Co. KG Maria-Luiko-Straße 54, 80636 München Germany
Published by arrangement with Berla & Griffini Rights Agency
Traduzione Mara Ronchetti

© Riproduzione riservata