- La Commissione, sollecitata dal Parlamento europeo e dal timore che un uso indiscriminato dell’intelligenza artificiale possa impattare negativamente sui diritti fondamentali, ha presentato una proposta di regolamento europeo sulla materia.
- L’intelligenza artificiale è uscita dai racconti di fantascienza e dai laboratori scientifici per materializzarsi definitivamente nel mondo, dove influenza tutti gli aspetti quotidiani della nostra esistenza, da quelli commerciali a quelli politici, a quelli sociali.
-
E questa realtà ha bisogno di essere regolamentata, per bilanciare interessi pubblici, commerciali, individuali.
La Commissione, sollecitata dal Parlamento europeo e dal timore che un uso indiscriminato dell’intelligenza artificiale possa impattare negativamente sui diritti fondamentali, ha presentato una proposta di regolamento europeo sulla materia. L’intelligenza artificiale è uscita dai racconti di fantascienza e dai laboratori scientifici per materializzarsi definitivamente nel mondo, dove influenza tutti gli aspetti quotidiani della nostra esistenza, da quelli commerciali a quelli politici, a quelli sociali. Insomma, quando Samuel Butler nel 1863 scriveva Darwin among the machines, il primo racconto in cui si ipotizzano macchine dotate di coscienza e consapevolezza, non poteva immaginare che la realtà avrebbe superato la sua fantasia.
E questa realtà ha bisogno di essere regolamentata, per bilanciare interessi pubblici, commerciali, individuali.
Rischi diversi
In merito alla disciplina delle tecnologie, l’Unione europea sta provando ad assumere il ruolo di leader globale: la proposta sull’intelligenza artificiale, infatti, segue altri strumenti, come il famoso Regolamento generale sulla protezione dei dati, le direttive su copyright online e blocchi geografici, e le proposte di regolamento per i mercati e i servizi digitali. La proposta si inserisce nel contesto del completamento del mercato unico digitale, si muove in un’ottica commerciale, e questo anche se si potrebbe ipotizzare che alcune forme di intelligenza artificiale, come quelle dedicate alla tutela di interessi pubblici transnazionali come la sanità, potrebbero essere viste anche come beni pubblici globali. L’idea è di attenuare i rischi derivanti dall’uso dell’intelligenza artificiale e, per far ciò, di “graduare” il rigore della disciplina in base ad essi. Per questo, la proposta distingue i prodotti che implicano un rischio “totale” per i diritti fondamentali, come quelli suscettibili di causare danni fisici e psicologici attraverso la manipolazione dei comportamenti umani, o che prevedono il social scoring (che ci rimanda a un episodio della serie Black Mirror che descrive una società in cui l’importanza delle persone è decisa da una app che conta i like ricevuti), e che per questo sono assolutamente vietati, da quelli di identificazione delle persone in spazi pubblici, considerati un po’ meno rischiosi, e anch’essi proibiti in prima battuta, ma autorizzabili in casi specifici. Si passa poi a disciplinare i prodotti con impatti via via minori, con riguardo ai quali è imposto al produttore l’obbligo di adottare sistemi di gestione del rischio.
Vengono curiosamente considerati “a rischio medio” i prodotti che interagiscono con le persone, riconoscono le loro emozioni e generano, o manipolano, immagini, come quelli che producono i deep fake, quei video che mostrano persone che dicono o fanno ciò che in realtà non hanno mai detto o fatto, di cui si discute già da qualche anno per l’impatto che potrebbero avere su informazione e opinioni pubbliche. Per questi la proposta della Commissione contempla solo l’obbligo di informare coloro che li usano che stanno interagendo con un’intelligenza artificiale o stanno comunque guardando contenuti manipolati o generati artificialmente.
Definizioni da aggiornare
Un’intelligenza artificiale, per poter funzionare correttamente, ha bisogno di moltissimi dati, dai quali imparare come comportarsi: quindi una disciplina corretta, effettiva, consapevole della prima non può essere slegata da quella dei big data. Non è un caso che il regolamento proposto abbia punti in comune con quest’ultima disciplina: entrambi, ad esempio, prevedono l’applicazione extraterritoriale della disciplina Ue, cioè il fatto che la stessa si applichi anche ai fornitori non stabiliti in Europa ma che in Europa vogliono operare, anche se da remoto. Un elemento peculiare della proposta è quello di attribuire alla Commissione la facoltà di aggiornare unilateralmente la definizione di “sistema di intelligenza artificiale” e, quindi, di determinare quali siano i prodotti da considerare pericolosi: se per un verso ciò potrebbe comportare un’eccessiva discrezionalità della Commissione stessa, per l’altro consentirebbe di avere uno strumento di aggiornamento tempestivo delle regole, in un settore in cui le modificazioni tecnologiche sono rapidissime. E non sempre i procedimenti legislativi ordinari garantiscono la celerità necessaria.
La proposta, insomma, pur rientrando nella regolamentazione del mercato unico digitale, evidenzia una volta di più i legami inscindibili fra aspetti commerciali e diritti fondamentali, e il ruolo che l’Ue intende giocare nel contesto globale.
© Riproduzione riservata