- Che cosa succederebbe se uno dei tanti modelli conversazionali a cui i colossi tecnologici cinesi stanno lavorando elaborasse, magari pubblicamente, una critica feroce di Xi Jinping o prendesse in giro Mao?
- È così, i vertici del Partito Comunista potrebbero a breve trovarsi ad affrontare un gravoso dilemma: diventare una superpotenza nel cruciale campo dell’intelligenza artificiale o mantenere un ferreo controllo e una rigida censura sulle comunicazioni?
- Sarebbe un errore dare la Cina già per sconfitta. Una cosa, però, è certa: questa volta, l’autoritarismo cinese rischia davvero di ritorcersi contro le sue ambizioni da superpotenza tecnologica.
Nonostante sia una funzione rigorosamente bloccata dal produttore OpenAi, un numero non indifferente di utenti è in grado di aggirare i filtri e utilizzare ChatGpt come se fosse uno psicologo, ricevendo (presunto) supporto e sostegno emotivo. Come riescono gli utenti a fare qualcosa che i programmatori di questa intelligenza artificiale – con cui è possibile conversare su quasi ogni argomento – cercano in ogni modo di impedire?
Per capirlo, basta fare un giro su Reddit: è infatti in un apposito angolo di questa piattaforma che persone senza particolari competenze informatiche si scambiano tecniche e consigli sui prompt (le richieste testuali) migliori per aggirare i blocchi imposti dai programmatori, facendo così svolgere a ChatGpt la funzione di psicologo. «Fino a oggi, quando gli utenti più in gamba hanno attivamente cercato di costringere un modello di intelligenza artificiale generativa a infrangere le sue stesse regole, hanno sempre avuto successo», ha spiegato, parlando con Foreign Policy, lo scienziato informatico di Harvard Yonadav Shavit. Le conseguenze di tutto ciò possono essere gravi, come dimostrato proprio dal “ChatGpt psicologo” che in alcune occasioni ha suggerito agli utenti di suicidarsi o ha fornito diagnosi e cure completamente sballate.
Che cosa può comportare lo sviluppo di sistemi per loro natura allergici a regole fisse, e dal comportamento in parte imprevedibile, in una nazione come la Cina, dove parlare di alcuni argomenti (per esempio la rivolta di piazza Tienanmen) o esprimere determinate opinioni è assolutamente vietato? Quali sarebbero conseguenze per i colossi tecnologici cinesi se uno dei modelli conversazionali a cui stanno lavorando elaborasse su richiesta di qualche utente (o addirittura in pubblico) una critica feroce di Xi Jinping o prendesse in giro Mao? È davvero possibile creare un sistema che gli utenti non possono in alcun modo aggirare per fargli sostenere tesi sgradite?
Ambizioni e rischi
La soluzione drastica, ovvero rinunciare allo sviluppo di un ChatGpt made in China, significherebbe rinunciare anche a uno dei principali obiettivi della Repubblica Popolare. Nel piano ufficiale delineato dal partito nel 2017, e a cui i vertici fanno tuttora riferimento, è previsto che la Cina diventi leader mondiale nel campo dell’intelligenza artificiale entro il 2030. Un obiettivo che sarebbe impossibile raggiungere qualora la seconda superpotenza mondiale decidesse di tirarsi indietro proprio in un campo che ha enormi potenzialità trasformative in ogni ambito professionale, scientifico e non solo.
Varando il suo ambizioso piano, la Cina non aveva evidentemente fatto i conti con alcuni inevitabili risvolti dei sistemi generativi, che già al tempo iniziavano a venir sviluppati nella Silicon Valley. È così, i vertici del Partito comunista potrebbero a breve trovarsi ad affrontare un gravoso dilemma: diventare una superpotenza nel cruciale campo dell’intelligenza artificiale o mantenere un ferreo controllo e una rigida censura sulle comunicazioni?
Le due cose rischiano infatti di escludersi a vicenda. Per il momento, la Cina si è limitata a vietare a tutte le società tecnologiche nazionali di offrire servizi basati su ChatGpt, affermando come questo chatbot «potrebbe aiutare il governo statunitense a diffondere disinformazione e a manipolare la narrazione globale per i propri interessi geopolitici». In realtà, ciò rappresenta solo una parte del problema: come detto, il vero timore è legato all’incontrollabilità di ChatGpt e quindi al rischio che – pur impiegando tutti i filtri e i blocchi possibili – l’utilizzo di un sistema addestrato con oltre 800 gigabytes di informazioni, tra cui l’intera Wikipedia in lingua inglese, possa far venire a contatto i cittadini cinesi con informazioni sgradite o assolutamente vietate.
Un equilibrio complicato
Questo, però, vale per ChatGpt: un sistema progettato e sviluppato da una società della Silicon Valley e che quindi non deve sottostare a determinate restrizioni. E per quanto invece riguarda i colossi tecnologici che stanno sviluppando la versione cinese di ChatGpt, tra cui Baidu, Alibaba, Huawei o Tencent? È possibile sviluppare in sicurezza un Large Language Model (i sistemi di intelligenza artificiale in grado di generare testi, e non solo, su ogni argomento) se viene fin dall’inizio progettato con le attenzioni richieste dal partito?
«Per le società cinesi sarà molto complicato trovare il giusto equilibrio, che consenta loro di impiegare l’intelligenza artificiale generativa senza incappare nelle ire dei censori», ha spiegato Paul Scharre, autore di Four Battlegrounds: power in the age of artificial intelligence. La situazione si complica ulteriormente se si pensa che Ernie, il chatbot presentato da Baidu nel marzo scorso, è stato addestrato con informazioni in lingua inglese raccolte su Wikipedia e Reddit (che sono entrambi bloccati in Cina) e ha quindi necessariamente appreso informazioni che non potrebbe mai replicare o elaborare in alcuna forma.
Per quanto le aziende cinesi siano inevitabilmente esperte nel navigare le restrizioni imposte dal partito, la prova questa volta potrebbe essere di livello inedito. Tutto ciò va ulteriormente a complicare la sfida della Cina, che forse anche per le restrizioni imposte si sta infatti già trovando in difficoltà: il citato bot di Baidu, Ernie, ha gravemente deluso le aspettative; lo stesso vale per WuDao 2.0, il colossale sistema sviluppato dall’Accademia di Intelligenza Artificiale di Pechino e dotato 1.750 miliardi di parametri (l’equivalente informatico delle nostre sinapsi), ovvero dieci volte più di quanti non ne possegga GPT-3, il sistema che alimenta la prima versione di ChatGpt.
Nonostante sia stato trionfalmente presentato, anche sulla stampa occidentale, come l’esempio delle straordinarie capacità cinesi nel settore, la realtà è molto diversa: «Il solo fatto di avere un maggior numero di parametri non rende un sistema di intelligenza artificiale migliore di un altro, specialmente se a ciò non si combina una corrispondente crescita a livello di dati e di potere computazionale», ha scritto su Foreign Affairs Helen Toner, del Center for Security and Emerging Technologies della Georgetown University.
Incognite strategiche
Da una parte, enormi cervelloni privi però dei dati necessari ad alimentarli; dall’altra, chatbot addestrati con dati in inglese, ma dalle prestazioni probabilmente rese deludenti anche dai vincoli a cui le società cinesi sono soggette. C’è un modo di uscire da questo vicolo cieco? La strada è duplice: da una parte, potrebbe essere necessario impiegare dati di origine cinese, accuratamente filtrati e purgati da ogni elemento sgradito (ed è forse anche a questo scopo che Pechino ha recentemente varato il suo National Data Bureau); dall’altra, è indispensabile schierare un esercito di moderatori, che verifichino, come già avviene sui social, ogni contenuto fornito da questi bot.
Una strategia piena di incognite: considerando le notizie relative alle estreme difficoltà affrontate dai censori dei social cinesi, quanto personale sarebbe necessario per svolgere un compito del genere? Non solo: è davvero possibile ripulire attentamente la stratosferica mole di dati che serve per addestrare questi modelli? E se anche si riuscisse, come impedire che questi chatbot generino “allucinazioni” (come si definiscono in gergo le situazioni in cui l’intelligenza artificiale produce con sicurezza dei resoconti completamente inventati), fornendo in maniera imprevedibile, e magari pubblica, resoconti, biografie o notizie sgradite, vere o false che siano?
«Fare in modo che un chatbot segua le regole nel 90 per cento dei casi è abbastanza facile», ha spiegato sempre Yonadav Shavit. «Ma riuscire a fargli seguire le regole nel 99,99 per cento dei casi è un enorme problema di ricerca ancora irrisolto». Il partito non può permettersi di sottovalutare questo aspetto, soprattutto visto il recente caso della cosiddetta “protesta dei fogli”, che si sarebbe diffusa anche grazie alle già citate difficoltà dei censori social, incapaci di bloccare tutte le informazioni necessarie. I pericoli posti dai sistemi generativi sono diversi, ma altrettanto minacciosi.
Sarebbe un errore dare la Cina già per sconfitta nella corsa alla nuova generazione di intelligenza artificiale (com’è invece già stato fatto). Una cosa, però, è certa: questa volta, l’autoritarismo cinese rischia davvero di ritorcersi contro le sue ambizioni da superpotenza tecnologica.
© Riproduzione riservata