Dal 6 all’11 febbraio, organizzato dal governo francese e sostenuto dalle Nazioni Unite, si è tenuto a Parigi l’Artificial Intelligence Action Summit.

Presieduto dal presidente francese Emmanuel Macron e dal primo ministro indiano Narendra Modi, si è trattato del terzo incontro multilaterale sull’intelligenza artificiale (IA) nel giro di tre anni, a dimostrazione della grande attenzione che Stati e organizzazioni internazionali stanno rivolgendo al tema: esso, infatti, fa seguito al Summit di Bletchley Park organizzato dal Regno Unito nel novembre 2023 e a quello, organizzato ancora una volta dal Regno Unito ma assieme alla Corea del Sud, a Seul del 2024.

Il vertice parigino muoveva proprio dai risultati di questi ultimi due – e in particolare dal Rapporto scientifico internazionale sulla sicurezza dell'intelligenza artificiale, predisposto da un gruppo di lavoro nominato a Blechley Park e composto da un centinaio di esperti provenienti da 30 Paesi, guidato dal pioniere delle reti neurali e del deep learning Yoshua Bengio, canadese, pubblicato nella sua prima edizione proprio in occasione del Vertice – e mirava, appunto, a consolidare l’approccio condiviso già concordato, basato su cooperazione scientifica, ricerca di soluzioni comuni e adozione di standard condivisi, nel contesto di tre obiettivi principali: garantire a tutti gli Stati strumenti per sfruttare le opportunità offerte dall’IA, favorirne lo sviluppo in senso sostenibile, rafforzarne il sistema di governance internazionale.

Dichiarazioni d’interesse

Il summit si è concluso con l’adozione di otto dichiarazioni, ovviamente tutte di portata non vincolante, ma che rappresentano strumenti politici suscettibili di indirizzare l’attività dei governi firmatari, sia sul piano interno sia in sede internazionale.

Tre di questi ci paiono di particolare interesse.

La “Dichiarazione per un’intelligenza artificiale inclusiva e sostenibile per le persone e il pianeta” auspica che i 58 Stati firmatari, ai quali sono da aggiungersi Unione europea e Unione africana, promuovano l’accessibilità dell’IA per colmare il divario digitale che affligge i Paesi meno sviluppati e che, quindi, gli strumenti di IA siano accessibili a tutti, inclusivi, trasparenti, sicuri e affidabili, e che rispettino e sviluppino il quadro normativo internazionale applicabile, ivi compresi, in primo luogo, i diritti fondamentali.

La Dichiarazione, in maniera significativa, si sofferma poi sulla centralità dell’IA per lo sviluppo economico e la crescita sostenibile e sollecita quindi gli Stati a vigilare per evitare concentrazioni di imprese sui mercati.

L’attenzione per gli aspetti economici dell’IA è probabilmente il risultato dell’influenza dell’approccio economico al digitale già adottato dall’Unione europea a differenza di altre organizzazioni internazionali – come il Consiglio d’Europa e la sua “Convenzione quadro sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto” del maggio 2024 – le quali invece si sono concentrate maggiormente sulla necessità di rispettare i diritti fondamentali.

L’investimento della Ue

Non a caso, infatti, la stessa Ue ha dichiarato di voler procedere al «più grande investimento pubblico in intelligenza artificiale al mondo»: un impulso all’innovazione e alla formazione dei talenti all’interno dell’Ue di 10 miliardi di euro.

Va però detto che la grande attenzione che l’Ue indirizza ai temi del digitale ha comportato la produzione di un’enorme mole di regole giuridiche (si pensi al regolamento generale sulla protezione dei dati, a Digital Services Act e Digital Markets Act, al regolamento sull’accesso equo ai dati, al regolamento sulla stessa IA…), produzione che è vista, in altri contesti e in particolare in quelli anglofoni, come un limite allo sviluppo e un costo per le imprese, specie le più piccole.

Quanto, poi, alla Carta di Parigi per un’intelligenza artificiale d’interesse generale (che è stata però sottoscritta solo da 10 Paesi, tra i quali non figura neppure l’Italia), essa, dopo aver ammesso, in maniera molto significativa, che il concetto di «interesse generale» è definito in modo diverso a seconda delle popolazioni, dei Paesi e dei contesti, si concentra opportunamente sul fatto che un effettivo accesso all’IA è condizionato dall’accessibilità a potenza di calcolo e dati di qualità, che può essere limitata dalla concentrazione dei mercati.

Sui delicati aspetti della pace e della sicurezza internazionale, poi, si concentra la “Dichiarazione di Parigi sul mantenimento del controllo umano nei sistemi d’arma abilitati dall’intelligenza artificiale” (sottoscritta da 20 Paesi, tra i quali il nostro) i cui firmatari, pur riconoscendo le potenzialità dell’IA nel settore militare, si impegnano ad utilizzarla in modo responsabile e in conformità con il diritto internazionale, in particolare il diritto internazionale umanitario, e in modo da non compromettere la pace, la sicurezza e la stabilità internazionali. Gli Stati riconoscono, soprattutto, che la responsabilità per attività militari non può essere trasferita alle macchine e si impegnano a garantire che gli esseri umani rimangano in controllo delle operazioni e siano tenuti a rispondere per lo sviluppo, l'implementazione e l'utilizzo delle applicazioni dell’IA nel dominio militare.

Il documento rinforza, ribadendolo, un approccio già diffuso in seno alla comunità internazionale con riguardo alle “armi autonome”, che aveva visto, a dicembre 2024, l’Assemblea generale delle Nazioni Unite approvare a larga maggioranza una risoluzione che promuove consultazioni per affrontare queste questioni e predisporre un quadro giuridico internazionale che vieti esplicitamente il cosiddetto “automated killing”, il quale, va detto, può però già esser considerato vietato in applicazione dei principi di proporzionalità e distinzione tra obiettivi militari e civili già in vigore ai sensi del diritto internazionale umanitario.

Firme che mancano

Né il Regno Unito né gli Stati Uniti hanno firmato gli atti con i quali il vertice si è concluso, sulla scorta, però, di ragioni diverse: mentre il primo ha incentrato la sua attenzione sull’assenza di orientamenti che consentano agli Stati di tutelare la sicurezza nazionale, il vicepresidente statunitense JD Vance ha invece dichiarato che il suo Paese non intende sottoscrivere atti internazionali che possano comportare un eccesso di regolamentazione dell’intelligenza artificiale a scapito del suo sviluppo.

Ora, per un verso il rifiuto statunitense di firmare si inserisce in quel contesto più ampio che vede gli Stati Uniti della seconda amministrazione Trump riesumare quell’unilateralismo che già aveva caratterizzato il primo mandato e, in particolare, riaprire e rinforzare le tensioni commerciali con Cina e Ue.

Per altro verso, e malgrado una serie di dichiarazioni che negano ciò, il cambiamento di posizione del Regno Unito, che invece fino a pochi mesi or sono si era fatto promotore di iniziative multilaterali in materia di IA, potrebbe mirare ad un rafforzamento dell’asse con Washington, anche come reazione alle recenti statistiche che vedono gli inglesi in maggioranza pentiti dell’isolazionismo post-Brexit. Dal canto suo la Cina (come pure, in un contesto differente, l’India), invece, dimostra, almeno sulla carta, l’intenzione di acconsentire a un approccio comune alla disciplina dell’IA, con questo, probabilmente, mirando a un’apertura più complessiva e alla costruzione di partnership più ampie.

© Riproduzione riservata