«La regolamentazione dell’intelligenza artificiale (Ia) è un argomento complesso e in continua evoluzione, poiché l’Ia ha un impatto significativo su una vasta gamma di settori e solleva diverse questioni etiche, sociali, economiche e legali». A scriverlo è ChatGpt, dopo che le abbiamo chiesto come potremmo regolamentarla.

È la dimostrazione di quanto la questione sia talmente impressa nella natura stessa della tecnologia che, se avesse davvero una personalità propria, potremmo pensare che sarebbe in grado anche di auto regolamentarsi.

Il problema è che non è così e che stiamo parlando di uno strumento che ha due caratteristiche fondamentali: innanzitutto, quello che conta è il modo in cui viene utilizzata (dagli umani); ha poi una velocità di evoluzione che rischia di superare il passo di qualsiasi tentativo di regolamentazione.

Da fine novembre 2022, quando è apparso per la prima volta ChatGpt, l’intelligenza artificiale generativa ha iniziato a popolare la nostra vita, con parole, video, immagini e suoni. È cambiato il modo in cui usiamo il web, in cui lavoriamo e in cui ci informiamo. Ma ha posto anche interrogativi etici e pratici, fra un immaginario da libro di fantascienza e rischi più concreti di disinformazione o truffe informatiche. Fino a porre un problema fondamentale: dove va posto il confine.

In questo articolo cerchiamo di fare ordine e di capire come ci si sta muovendo, in Italia, per dare regole all’intelligenza artificiale.

Chi ci sta lavorando

Paolo Benanti (foto Ansa)

Il tema è diventato così centrale che il governo ha incaricato un gruppo di esperti – la cosiddetta «commissione algoritmi», presieduta da padre Paolo Benanti, professore della Pontificia Università Gregoriana – di occuparsi dei risvolti che può avere sull’editoria (con la prima fase del lavoro che si è concluso a marzo).

Alessio Butti, sottosegretario alla presidenza del Consiglio dei ministri di Forza Italia con delega all’innovazione tecnologica, ha poi scelto dodici esperti per comporre il Comitato di coordinamento per l’intelligenza artificiale, una task force tecnica presieduta da Gianluigi Greco, ordinario di informatica all’Università della Calabria.

Alessio Butti, sottosegretario per l'innovazione tecnologica e la transazione digitale (foto Ansa)

Di intelligenza artificiale si sta occupando anche la Commissione attività produttive, presieduta dal leghista Alberto Luigi Gusmeroli, con un’indagine conoscitiva sull’impatto che potrà avere sul sistema produttivo italiano.

E il Comitato di vigilanza sull’attività di documentazione, un organismo permanente dell’ufficio di presidenza, guidato in questa legislatura dalla vicepresidente della Camera Anna Ascani del Pd. A febbraio ha pubblicato un report su come l’intelligenza artificiale possa supportare il lavoro dei parlamentari.

Ci sono poi due enti – l’Agenzia per la cybersicurezza nazionale, guidata dal prefetto Bruno Frattesi, e l’Agenzia per l’Italia digitale – che avranno il compito di vigilare sull’uso della tecnologia e definirne l’utilizzo anche nella pratica, secondo i dettami della legislazione europea. Saranno, in sostanza, le autorità responsabili sull’intelligenza artificiale in Italia.

Le leggi

Il punto è questo: capire come si fa a evitare che una possibile opportunità – per le imprese e per i parlamentari, come per tutti i cittadini – possa diventare un pericolo. La prima risposta più o meno concreta è il disegno di legge approvato dal Consiglio dei ministri a fine aprile, su proposta della presidente del Consiglio, Giorgia Meloni, e del ministro della Giustizia, Carlo Nordio.

Siamo ancora all’inizio del percorso, perché il testo – di cui è filtrata solo qualche bozza non definitiva – dovrà essere presentato in parlamento, dove potrebbe anche subire delle modifiche significative.

Ma, se si allarga ancora lo sguardo, proprio in parlamento ci sono altre 14 proposte di legge depositate da inizio legislatura (tre al Senato e 11 alla Camera). Quattro sono state presentate dal Pd, altre quattro da Forza Italia, due da Fratelli d’Italia e dalla Lega, una da Azione e una da Noi moderati, come riportato dal Sole 24 Ore.

Fa capire che il tema non è solo di grande attualità, ma ha anche un profondo risvolto politico, con iniziative diverse che rischiano di incrociarsi nella discussione e il tentativo di dare all’Italia un (vero o presunto) primato europeo nell’anno della presidenza del G7.

Anche perché il tema supera appunto i confini italiani. L’Unione europea ha già approvato in primavera una sua legge sull’intelligenza artificiale (il cosiddetto Ai act). Al G7, durante il vertice pugliese a giugno, parteciperà alla discussione anche papa Francesco, come ha fatto sapere la stessa Meloni.

La presidenza italiana del G7 "intende valorizzare il percorso promosso dalla Santa Sede sull'Intelligenza artificiale con la 'Rome Call for AI Ethics'" e "portarlo all'attenzione degli altri leader in occasione del vertice in Puglia". Così la premier Giorgia Meloni in un videomessaggio in cui annuncia "la partecipazione di Papa Francesco ai lavori del G7 proprio nella sessione dedicata all'Intelligenza artificiale". (NPK via Ansa)

Le aspettative

Una ricerca dell’Osservatorio scienza, tecnologia e società di Observa Science in Society – citata anche dalla rivista del Mulino – dà l’idea delle aspettative degli italiani sul tema: il 54,1 per cento ritiene che i sistemi come ChatGpt possano essere utilizzati, «ma vadano rigidamente regolamentati».

Il 17,3 per cento ritiene che vadano «proibiti in quanto rischiano di togliere lavoro e responsabilità agli essere umani». Solo il 12,9 per cento ritiene che vadano invece «incoraggiati», essendo «un’ottima risorsa per attività educative e lavorative».

Al di là del pubblico sentire, è proprio una regolamentazione che sia il più possibile innovativa a garantire una guida a un processo che è già in corso. A chiederlo sono le stesse imprese che già integrano l’intelligenza artificiale nel loro lavoro (in alcuni casi da anni).

Aumenteranno anche le ineguaglianze sociali tra i vari paesi

Amministrazioni senza fondi

Per riuscire però ad accompagnare l’innovazione, soprattutto nel settore pubblico, c’è bisogno di investimenti. Ed è il punto più controverso del disegno di legge presentato nei giorni scorsi dal governo. La bozza (che non è ancora il testo ufficiale che sarà discusso in parlamento) riporta, all’articolo 26, una formula canonica, ma comunque significativa: «Dall’attuazione della presente legge non devono derivare nuovi o maggiori oneri a carico della finanza pubblica».

In altre parole, «le amministrazioni pubbliche interessate provvedono all’adempimento delle disposizioni della legge con le risorse umane, strumentali e finanziarie disponibili».

Secondo Giovanni Maria Riccio, ordinario di diritto comparato d’autore all’Università di Salerno, il rischio è che «non potranno essere affidate consulenze esterne a soggetti dotati di reali competenze, ma bisognerà fare affidamento sulla buona volontà di qualche funzionario che, nel tempo libero, avrà il buon cuore di aggiornarsi e documentarsi». Il paradosso è che mentre i parlamentari si dotano di task force, commissioni e audizioni nel tentativo di portare ordine in un tema tanto complesso, l’aspettativa è che le novità possano essere poi recepite dalle amministrazioni locali senza ulteriori spese.

Nella newsletter “Legge zero”, che riunisce giuristi e ricercatori specializzati in nuove tecnologie, si scrive che «le istituzioni dovrebbero essere», al contrario, «in condizione di poter ingaggiare i migliori esperti, di dotarsi di strumenti tecnologici e organizzativi per potersi muovere con velocità, sperimentando soluzioni e approcci innovativi».

Il miliardo di euro

Di investimenti si parla invece in un altro capitolo della proposta di legge, all’articolo 21. È quello che prevede il famoso «miliardo di euro» che Meloni aveva promesso in un videomessaggio durante un convegno, a Roma, dedicato proprio all’intelligenza artificiale.

Wired, rivista specializzata in tecnologia, ha ricostruito che nelle prime bozze del provvedimento questa previsione di spesa non c’era, o era più contenuta. Il fatto di includerla è sicuramente un dato significativo, almeno dal punto di vista propagandistico.

È però ancora presto per capire cosa ci sia di concreto rispetto alla superficie degli annunci. La proposta di legge dà l’autorizzazione a spendere «fino a un miliardo di euro», affidandone poi la traduzione in concreto a Cdp Venture capital, il fondo nazionale che ha appunto come compito principale quello di accelerare l’innovazione e di sostenere le start up italiane.

Sintetizzando un po’ quello che è attualmente previsto dalla legge, i fondi serviranno per finanziare l’avvio o la crescita di piccole e medie imprese italiane «con elevato potenziale di sviluppo ed innovative, (…) che operano nelle tecnologie dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico (…), nonché nel settore delle telecomunicazioni con particolare riferimento al 5g e alle sue evoluzioni, al mobile edge computing, alle architetture aperte basate su soluzioni software, al Web 3».

Agostino Scornajenchi, che da ottobre 2023 è direttore e amministratore delegato di Cdp Venture capital, ha dato qualche dettaglio in più a inizio aprile, a margine della presentazione del piano strategico dell’ente. L’obiettivo è di destinare 500 milioni di euro a un fondo specifico per la ricerca. Il resto servirà invece per investimenti specifici nell’intelligenza artificiale, popolando gli altri fondi già presenti o in costruzione. Con l’idea di affiancare a ogni euro pubblico un altro euro privato, fino a raddoppiare l’investimento.

Intanto, in Francia il presidente Emmanuel Macron ha promesso investimenti per 7 miliardi. Microsoft ha invece annunciato 2 miliardi di investimenti in Spagna e poco più di 3 miliardi in Germania.

Princìpi e casi specifici

Per il resto, la proposta di legge dà grande spazio ai princìpi base (sono sei articoli con vari commi), in cui si dice un po’ di tutto: dall’importanza dell’Ia per lo sviluppo economico, per la produttività e per l’interazione uomo-macchina, all’utilizzo nei mezzi di comunicazione senza pregiudicare libertà e obiettività.

In questo, l’impostazione della proposta di legge risente di uno dei problemi più diffusi per chiunque si occupi della materia: il fatto che è più semplice fotografare il dibattito presente, meno immaginare e dare una guida per il futuro.

La legge riporta comunque alcuni settori chiave in cui l’utilizzo dell’intelligenza artificiale potrebbe rappresentare qualche problema in più: dall’utilizzo in ambito sanitario, che deve avvenire senza discriminazioni, all’utilizzo in magistratura (l’intelligenza artificiale potrà essere utilizzata solo per organizzare e semplificare il lavoro, o per fare attività di ricerca, non per una sentenza).

Fino al lavoro intellettuale: in questo l’intelligenza artificiale è consentita «esclusivamente per esercitare attività strumentali». Inoltre, «per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo». Un po’ come abbiamo fatto all’inizio di questo articolo.

Il paradosso è che in questo potrebbe arrivare un aiuto proprio dall’intelligenza artificiale, con il perfezionamento di strumenti che già vengono utilizzati in università, in grado di capire quanto di un contenuto è plagiato.

Reati

Una delle parti più dibattute è poi quella relativa alla “repressione” di reati realizzati con l’intelligenza artificiale. L’idea è di istituire un’aggravante generica in questi casi, con l’integrazione dell’articolo 61 del codice penale (appunto quello che si riferisce alle “circostanze aggravanti comuni”).

Si interviene sulla “sostituzione di persona” (articolo 494 cp), specificando che «la pena è della reclusione da uno a tre anni se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale». Si prevede inoltre che il materiale generato con l’Ai abbia una specifica indicazione, per esempio con una scritta in filigrana.

Ma c’è soprattutto l’introduzione di una nuova fattispecie di reato – concetto fortemente sottolineato in conferenza stampa dal ministro Nordio – che dovrebbe essere l’articolo 612 quater: «Chi diffonde senza il consenso video o immagini alterate con l’intelligenza artificiale, cagionando un danno ingiusto, è punito con la reclusione da 1 a 5 anni».

Il sogno e l’incubo

La proposta governativa prenderà dunque la strada del parlamento, dove potrebbe subire altre profonde modifiche, con il rischio di allungare ulteriormente i tempi. Anche perché anche l’opposizione, come detto, sta portando avanti le proprie iniziative.

Il primato spetta al testo del Pd, con il senatore Lorenzo Basso come primo firmatario, che è stato presentato a fine marzo e ha già iniziato l’iter in commissione.

Il tema è talmente urgente che il presidente della Repubblica, Sergio Mattarella, ne ha parlato in più di un’occasione. Nel suo discorso di fine 2023, aveva fatto riferimento all’importanza di verificare che ci gestisce l’intelligenza artificiale non riesca a «orientare il pubblico sentimento».

Parlando in Calabria alla viglia del primo maggio, Mattarella ha sottolineato il rischio della «rimozione dell’immenso e insostituibile valore della creatività». Il rischio è di limitare «la libertà della persona umana nel suo profilo più affascinante: il suo pensiero, la sua opera».

Non sarebbe un sogno, dice Mattarella, ma «una prospettiva allarmante». Su cui adesso serviranno delle regole.


  • Iscriviti alla newsletter Oggi è Domani, per condividere tutte le mattine le idee che ci uniscono

© Riproduzione riservata