- Un’auto senza conducente investe un pedone; un drone pilotato da un computer si schianta e colpisce un’abitazione; un programma software diagnostica un trattamento medico sbagliato. Chi paga in questi casi?
- «Sul versante penalistico, è arduo, se non impossibile, attribuire responsabilità personale ad una persona fisica quando un evento è provocato da un sistema di intelligenza artificiale», spiega un esperto
- Per normare l’Ai, la Commissione europea ha scritto una proposta di legge, rivista in giugno dal Parlamento, che prevede quattro livelli di rischio: inaccettabile, elevato, limitato, minimo.
Un’auto senza conducente investe un pedone; un drone pilotato da un algoritmo si schianta e colpisce un’abitazione; un programma software diagnostica un trattamento medico sbagliato; i computer reagiscono con un flash crash in borsa ad una notizia falsa danneggiando migliaia di risparmiatori. Eventi che potrebbero benissimo entrare in un episodio di Black Mirror e che invece sono maledettamente reali e sempre più probabili, grazie alla diffusione dell’intelligenza artificiale (Ai).
Una rivoluzione che coinvolge non solo le nostre vite ma anche il mondo giudiziario: chi è responsabile di un incidente provocato da un algoritmo? La casa costruttrice dell’auto? Il produttore del drone? Il programmatore del software medico? Oppure lo sviluppatore del sistema di intelligenza artificiale? Il sistema di intelligenza artificiale stesso?
Nel diritto penale
È una sfida affascinante per avvocati e magistrati. «È per ora senza una soluzione definitiva» commentano Giuseppe Fornari, founding partner dello Studio Fornari e Associati e Nicolò Biligotti, senior associate dello stesso studio ed esperto in diritto penale delle nuove tecnologie. «Sul versante penalistico, è arduo, se non impossibile, attribuire responsabilità personale ad una persona fisica quando un evento di reato è provocato da un sistema di intelligenza artificiale. In particolar modo da sistemi caratterizzati da reti neurali di deep learning, le quali aprono le porte ad un auto apprendimento della macchina tale da consentirle di assumere decisioni in autonomia. In questi casi, né il creatore del programma, il produttore o ancora l’utilizzatore possono essere considerati colpevoli di un reato causato da un sistema di intelligenza artificiale. Viene a mancare il nesso di causa tra condotta umana e evento, così come la prevedibilità e l’evitabilità dell’evento, e ancora la consapevolezza e la volontà di un determinato evento. Tutti requisiti imprescindibili per l’integrazione di fattispecie criminose, tanto dolose, quanto colpose».
La peculiarità dell’intelligenza artificiale è infatti quella di comportarsi in modo autonomo ed imprevedibile, sulla scorta di algoritmi che tanto consentono alle macchine azioni non esplicitamente programmate dall’uomo, quanto impediscono la ricostruzione ex post delle ragioni che hanno indotto le macchine ad agire in un determinato senso.
Sul piano del diritto penale, una soluzione, suggeriscono Fornari e Biligotti, potrebbe essere quella di introdurre fattispecie criminose che sanzionino in sé e per sé la violazione delle norme cautelari introdotte dall’ordinamento, come per esempio le regole al vaglio dell’Unione europea.
Sul versante civile, invece, varie sono le soluzioni sul tavolo: da un’applicazione delle norme attualmente vigenti in materia di responsabilità da prodotto, all’istituzione di un fondo per i soggetti danneggiati dall’Ai, sulla falsariga di quanto avviene per le vittime degli incidenti stradali.
In aiuto dei giudici
Ma per il cittadino le cose si fanno ancora più complicate quando dall’altra parte della barricata ad utilizzare gli algoritmi c’è lo stesso sistema giudiziario. Prendete il caso di Eric. L. Loomis, un americano che nel 2016 contestò davanti alla Corte suprema del Winsconsin la decisione di un tribunale locale riguardo alla sua libertà vigilata. Non gli era stata concessa per colpa di un programma informatico chiamato Compass, (Correctional offender management profiling for alternative sanctions) di proprietà della Northpointe (ora Equivant), secondo cui Loomis era da considerare un soggetto ad alto rischio di recidiva.
L’intelligenza artificiale è sempre più usata negli Stati Uniti per stabilire, in base ad una serie di parametri, quanto è probabile che un condannato possa commettere nuovamente un reato e Aiutare quindi i giudici a indicare cauzione e libertà vigilata. Con tutti i rischi di decisioni arbitrarie basate su stato sociale o razza. Comunque la Corte suprema ha dato torto a Loomis, ritenendo che il tribunale locale avesse agito correttamente.
Le norme europee
La Commissione e il parlamento europei sono molto preoccupati per gli effetti negativi dell’intelligenza artificiale e stanno cercando di mettere dei limiti al suo utilizzo. Nel 2021 la Commissione ha scritto una proposta di legge, rivista in giugno dal parlamento, che prevede quattro livelli di rischio: inaccettabile, elevato, limitato, minimo. Per esempio, vengono definiti inaccettabili e quindi vietati «tutti i sistemi di Ai considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone, dal punteggio sociale da parte dei governi ai giocattoli che utilizzano l’assistenza vocale che incoraggia comportamenti pericolosi».
Viene invece considerata a rischio elevato e quindi «soggetta a obblighi rigorosi prima di poter essere immessi sul mercato» la tecnologia di Ai utilizzata per esempio nei trasporti, nell’istruzione per il punteggio negli esami, nel credito per ottenere un prestito, nella chirurgia. Inoltre tutti i sistemi di identificazione biometrica a distanza sono considerati ad alto rischio e soggetti a requisiti rigorosi. L’uso dell’identificazione biometrica a distanza in spazi accessibili al pubblico a fini di contrasto è, in linea di principio, vietato.
Le eccezioni ristrette sono rigorosamente definite e regolamentate, come ad esempio quando necessario per cercare un minore scomparso, per prevenire una minaccia terroristica specifica e imminente o per individuare, identificare o perseguire un autore o sospettato di un reato grave. Tale uso è soggetto all’autorizzazione di un organo giudiziario o di altro organo indipendente e a limiti di tempo, di portata geografica e di dati consultati».
Su quest’ultimo punto, in particolare, è intervenuto il Parlamento per evitare che fosse consentito il riconoscimento biometrico delle persone in tempo reale: se un governo autoritario volesse per esempio sapere chi partecipa Ai comizi dell’opposizione, potrebbe scoprirlo servendosi del riconoscimento facciale e adducendo come scusa il rischio di attentati.
Anche i chatbot come ChatGpt sono finiti nel mirino della Commissione del Parlamento: i loro creatori dovranno rivelare che il contenuto è stato generato da un’intelligenza artificiale, progettare il modello in modo da impedire la generazione di contenuti illegali, pubblicare riepiloghi dei dati con diritti d’autore utilizzati nel corso dell’addestramento. Dopo che il parlamento ha definito la propria posizione negoziale sull’intelligenza artificiale, inizieranno i negoziati con i paesi dell’Unione europea in Consiglio per la stesura finale della legge.
© Riproduzione riservata