È pronto il regolamento europeo in materia di intelligenza artificiale, ma i problemi non mancano. Innanzitutto, non sembra tenere conto dell’evoluzione della tecnologia. E poi vuole intervenire in un settore dove l’Europa sembra solo una spettatrice
Dopo una lunga e travagliata gestazione, è stato finalmente approvato il testo definitivo del Regolamento europeo in materia di intelligenza artificiale, meglio noto come Ai Act. Si tratterebbe, secondo alcuni, di una tappa fondamentale, con la quale l’Europa confermerebbe la centralità dei diritti fondamentali nelle proprie politiche. Una contrapposizione forte con gli Stati Uniti, che, nel digitale, hanno scelto di affidarsi alle regole del mercato, lasciando liberi di prosperare quelli che, in pochi anni, sono diventati i giganti dell’economia del web.
L’Ai Act proseguirebbe, invece, un percorso inaugurato dal Trattato di Nizza, che ha “costituzionalizzato” i valori dell’Unione europea, e che, nell’ambito del settore tecnologico, è stato poi tradotto da successive norme ispirate all’umano-centrismo, alla tutela della dignità degli individui, più che alle esigenze delle imprese, come il Gdpr e il Digital Services Act.
La scelta giusta?
Nel corso dei lavori di approvazione, il coro politico di Bruxelles, monoliticamente entusiastico, ha recitato un mantra ripetendo ossessivamente che l’Europa sarebbe la prima a dotarsi di una legge sulle tecnologie di intelligenza artificiale.
I record non hanno alcuna valenza nel mondo del diritto, perché la domanda da porsi dovrebbe essere: abbiamo scelto le migliori opzioni possibili? Il diritto è selezione di interessi: stiamo difendendo quelli giusti, nei modi e nei tempi giusti?
Un’intelligenza che cambia
L’Ai Act suddivide le tecnologie di intelligenza artificiale in base a parametri di rischio, vietandone alcune e questo è indubbiamente un bene. Tuttavia, sembra che si consideri meno la circostanza che tali tecnologie, nel prossimo futuro, potrebbero radicalmente cambiare.
Non è il mercato che fa le regole, ma eravamo davvero pronti per un testo normativo o sarebbe stato più prudente attendere? La differenza tra l’intelligenza artificiale e i “vecchi” software è semplice: in quest’ultimo caso, posso conoscere quello che il software, una volta licenziato, farà; l’Ai – ed è lo stesso regolamento a dirlo – è un sistema progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo il suo originario sviluppo (insomma, può autogenerarsi, a prescindere dai suoi creatori).
Scenari distopici, ma scientificamente indimostrati, sono stati evocati per spiegare la necessità di arginare lo sviluppo delle macchine, per non provare quella “vergogna prometeica”, di cui parlava Günther Anders, la «vergogna che si prova di fronte all’umiliante altezza di qualità degli oggetti fatti da noi stessi».
Perché, per quanto sia scontato, i sistemi di intelligenza artificiale sono generati da esseri umani, che dovrebbero controllare che le macchine stesse, al pari dei bambini, siano educate correttamente. Eppure, siamo ancora lontani da questo approdo, come ci confermano gli stessi sviluppatori: se chiedo di disegnare un abito da sposa, me lo restituirà bianco e di foggia occidentale.
Un problema europeo
C’è poi un’ulteriore questione. L’Europa, che ha perso la sua centralità in un’economia globalizzata, si è autoassegnata il ruolo di giudice dei valori da proteggere, senza tenere in alcun conto le differenti tradizioni culturali.
Le regole dell’Ai Act si applicano, al momento, principalmente a società non europee, facendo assomigliare la decantata cittadella, che ha eretto le sue mura attorno ai diritti fondamentali, a un paesino che sconta un evidente ritardo tecnologico rispetto a Stati Uniti e Cina (e forse anche ad altri) e che tenta disperatamente di difendere i propri ritardi competitivi.
L’Ai Act, al pari di altri atti normativi contemporanei che stanno affollando il prisma della legislazione in materia di nuove tecnologie, contiene molte formule vaghe, si affida ad autovalutazioni sui rischi che le stesse società dovrebbero compiere. Ma cosa accade se poi un’autorità di vigilanza considera questa valutazione errata?
Qualsiasi settore economico, per svilupparsi, ha bisogno di regole certe e chiare, non di norme che lascino un margine di apprezzamento così ampio alle autorità di controllo.
Infine, un ultimo punto, però centrale: quanto stanno investendo i paesi europei – Francia a parte – sullo sviluppo di queste tecnologie? Allo stato, c’è un duopolio tutto americano: l’Ai Act è una normativa europea o è qualcosa che, dall’Europa, vorrebbe controllare ciò che si sta affermando oltre i suoi confini?
© Riproduzione riservata