- Al di là degli scenari fantascientifici, l’intelligenza artificiale pone grossi rischi concreti, che l’Ai Act in corso di discussione al parlamento europeo prova ad affrontare.
- Dopo aver creato il punto di riferimento mondiale per la protezione dei dati con il Gdpr, l’Ue punta a ripetersi nel campo tecnologico più importante del presente e del futuro.
- Oltre a essere all’avanguardia in campo normativo, il vecchio continente può ancora avere un ruolo nello sviluppo dei sistemi di intelligenza artificiale?
Per quanto non riguardi direttamente l’Unione europea, l’azione del Garante privacy italiano nei confronti di ChatGpt è uno degli esempi più lampanti di come il vecchio continente sia in grado di contrapporsi, nel bene o nel male, ai colossi tecnologici e dell’intelligenza artificiale.
La decisione
Un’azione, quella del Garante, che è stata fraintesa da più parti: prima di tutto perché, a differenza di quanto spesso si sostiene, l’autorità che tutela anche l’utilizzo che viene fatto dei nostri dati non ha “bloccato” ChatGpt (e nemmeno ha il potere per farlo), ma ha mosso dei rilievi e ha chiesto dei chiarimenti a OpenAi, principalmente sull’utilizzo di informazioni personali raccolte a strascico dalla rete per addestrare la sua intelligenza artificiale. In risposta a questi rilievi, la società fondata da Sam Altman ha deciso di impedire l’accesso dall’Italia al suo strumento.
Non solo: il fatto che l’azione del garante sia giunta a pochissimi giorni di distanza dalla famosa lettera del Future of Life Institute – con cui un migliaio di imprenditori (e non solo) ha chiesto di sospendere lo sviluppo dell’intelligenza artificiale, considerata fantascientificamente come un’entità che rischia di sfuggire al controllo dell’essere umano e spodestarlo – è parsa ad alcuni come una conferma della estrema pericolosità di questa tecnologia.
«La decisione del Garante privacy ha generato moltissima eco a livello internazionale, anche negli Stati Uniti, ed è possibile che altre importanti nazioni, come Francia e Germania, seguano l’esempio italiano», spiega a Domani Brando Benifei, europarlamentare del Partito democratico e correlatore dell’Ai Act (il regolamento europeo sull’intelligenza artificiale). «Personalmente, credo che il garante avesse tutta la legittimità di agire come ha fatto e che sia anche importante far passare il messaggio che non ci sia impunità per questo tipo di nuove realtà. Il blocco di ChatGpt in Italia, però, va completamente distinto dalla lettera con cui si chiede il blocco dello sviluppo dell’intelligenza artificiale: una proposta non solo di difficile realizzazione, ma che distoglie l’attenzione dal fatto che già oggi, e non se e quando arriverà la cosiddetta intelligenza artificiale generale, questa tecnologia presenta una serie di rischi che vanno gestiti e mitigati».
Rischi già presenti
Sono proprio i rischi concreti e già presenti quelli sui quali si concentra l’Ai Act, le cui principali misure riguardano la classificazione per livelli di rischio degli algoritmi di intelligenza artificiale (soggetti di conseguenza a determinati vincoli), la necessità da parte degli utilizzatori di questi sistemi (vale a dire le imprese o la pubblica amministrazione) di eseguire sempre una valutazione d'impatto relativa ai diritti fondamentali, la messa al bando di alcune particolari applicazioni degli algoritmi di deep learning e molto altro ancora.
Dopo anni di lavoro, il percorso di questo regolamento sembra vicino a giungere al termine: a fine aprile ci sarà il voto nelle commissioni preposte ed entro la fine del mese successivo dovrebbe esserci invece il voto conclusivo al parlamento europeo, che non dovrebbe riservare particolari sorprese soprattutto sui fronti della sorveglianza e della polizia predittiva.
«Sotto questo aspetto, il testo dell’Ai Act è molto chiaro: messa al bando completa della polizia predittiva e delle telecamere di sorveglianza dotate di riconoscimento biometrico negli spazi accessibili al pubblico», prosegue Benifei. «È un importante passo avanti rispetto alla proposta iniziale della Commissione europea, che consentiva numerose eccezioni e in cui la polizia predittiva non veniva considerata. Essendo però temi molto delicati e politicamente divisivi, non posso escludere che, soprattutto da parte del Partito popolare europeo, ci siano dei singoli che cercheranno di far passare degli emendamenti soppressivi. Se teniamo la linea, passerà la messa al bando completa, che già sappiamo sarà poi fonte di dura negoziazione con alcuni stati membri».
Quelle più legate alla sorveglianza e alla sicurezza non sono certo le uniche applicazioni controverse e pericolose dell’intelligenza artificiale: dal monitoraggio algoritmico dei lavoratori ai sistemi di emotion recognition (che promettono di identificare, per esempio, lo stato emotivo di un candidato durante un colloquio di lavoro), fino al social scoring: «Stiamo discutendo di un divieto almeno parziale del riconoscimento emotivo, banalmente perché non funziona e pone solo ulteriori problemi e rischi», prosegue Benifei. «Per quanto invece riguarda il social scoring, anche in questo caso il testo prevede una totale messa al bando di qualunque sistema che cataloghi le persone in base ai comportamenti».
È inevitabile notare come, proprio mentre l’Ai Act giunge alla fase finale dopo un lavoro durato anni, l’intelligenza artificiale abbia nel frattempo compiuto un altro grande salto con l’avvento del già citato ChatGpt e di tutti i nuovi sistemi generativi, in grado di produrre in autonomia testi, immagini, video, musica e molto altro ancora.
La politica dell’innovazione
Costretta a rincorrere e a operare necessariamente con tempi diversi, la politica rischia di venire lasciata indietro dall’innovazione tecnologica? «Personalmente, avevo proposto fin dall’inizio un emendamento affinché si prestasse maggiore attenzione a queste nuove intelligenze artificiali generative», precisa l’europarlamentare. «Il regolamento è centrato su un principio che non si adatta a questi modelli a uso generale, ovvero l’idea che ci sia sempre un “utilizzo previsto” che deve essere oggetto di certificazione. Rispetto al testo generale, stiamo però inserendo l’obbligo per questi modelli di sottostare a molti dei requisiti del regolamento. Nel caso dei sistemi come ChatGpt abbiamo per esempio identificato l’obbligo di trasparenza, attraverso il quale dev’essere sempre chiaro quando si tratta di contenuti generati da intelligenza artificiale. Tra le altre cose, c’è anche l’obbligo di impedire la produzione di materiale illegale. Inizialmente abbiamo dovuto scontrarci con una linea molto permissivista da parte dei liberali e del Ppe, ma negli ultimi mesi l’esplosione di questo fenomeno ha convinto anche i più recalcitranti della necessità di intervenire».
Una corsa contro il tempo che evidenzia ulteriormente le difficoltà di tenere il ritmo di una tecnologia che avanza senza sosta da dieci anni a questa parte e che, proprio per questa ragione, ha reso necessario, spiega sempre Benifei, che la legge avesse «un meccanismo di aggiornamento sugli ambiti più rischiosi, che – ovviamente con lo scrutinio del parlamento – permetterà di affrontare in tempi rapidi le nuove necessità che potrebbero emergere. È quindi un sistema flessibile, creato proprio con l’idea che questo regolamento sia qualcosa che duri nel tempo e possa essere lo strumento con cui regoliamo l’intelligenza artificiale per i prossimi dieci anni».
Unico ruolo?
E così, dopo il regolamento europeo sulla protezione dei dati, l’Unione europea si pone ancora una volta come punto di riferimento globale per quanto riguarda la regolamentazione delle nuove tecnologie e dei potenziali abusi a cui ci pongono di fronte. È però soltanto questo il ruolo che ci spetta, mentre perdiamo costantemente terreno nei confronti dello sviluppo di una tecnologia che sembra essere esclusivo appannaggio di Cina e Stati Uniti?
«Prima di tutto, va sottolineato come non ci sia un legame tra le difficoltà del nostro continente e la maggiore regolamentazione a cui è soggetto», conclude Benifei. «Al contrario, è proprio questa nostra attenzione ad averci reso un player globale e una fonte di stimoli per il mondo intero. A mio modo di vedere, manca più banalmente una regia comunitaria; inoltre gli investimenti e il sostegno alla ricerca a livello europeo non sono sufficienti e la frammentazione dei sistemi nazionali ci rende più deboli di fronte a grandi realtà come Cina e Stati Uniti. Da questo punto di vista, inoltre, mi pare che il governo italiano – eliminando il ministero dedicato all’Innovazione tecnologica e non trovando spazio nell’agenda per la discussione di questi temi – contribuisca fattivamente all’arretratezza europea».
© Riproduzione riservata