C’è un’idea abbastanza diffusa fra chi si interessa di tecnologia: che lo strumento, di per sé, è spesso neutrale. È solo chi lo usa che può darne una connotazione positiva o negativa. Prendete un coltello, per esempio: può servire per cucinare o per compiere un omicidio.

È la stessa idea che si legge fra le righe di un report diffuso nei giorni scorsi da OpenAi, la casa madre di ChatGpt. Ha scoperto che esistono una serie di possibili usi negativi, fatti in contesti autoritari, in cui l’intelligenza artificiale diventa uno strumento per monitorare, individuare e probabilmente reprimere il dissenso.

Lo scenario, che ricorda in modo inquietante George Orwell, lascia però anche un’altra sensazione: che questa sia solo la punta dell’iceberg, quello che filtra – talvolta per pura coincidenza – e arriva fino a noi. Ed è qui che nasce il dibattito più attuale: tutti questi strumenti così potenti e così accessibili ci renderanno migliori, più liberi e più democratici, o daranno mezzi più potenti a chi la libertà la vuole reprimere?

Scraping di Stato

Il caso emblematico è quello che è stato chiamato da OpenAi “Peer review”. È stato scoperto perché degli utenti, che scrivevano molto probabilmente dalla Cina, avevano iniziato a utilizzare ChatGpt per correggere e migliorare un altro sistema di intelligenza artificiale autoprodotto. Veniva utilizzato molto probabilmente per monitorare i social network e andare a caccia di post considerati anti cinesi.

Tecnicamente è quello che normalmente viene definito come “scraping”, ovvero l’estrazione di dati dal web, per una qualsiasi finalità. Solo che in questo caso l’algoritmo doveva essere addestrato a spiare i profili personali per trovare campagne contro la Cina.

Il modello di “spionaggio cinese” sarebbe stato alimentato da Llama, sviluppato da Meta (anche se non è al momento sicuro). Ha la caratteristica peculiare di essere “open source” e quindi utilizzabile da tutti. Il paradosso è che un grande principio della cultura hacker – quello di mettere a disposizione un codice a tutti, anche perché possa essere migliorato – in questo caso è diventato uno strumento di potenziale oppressione.

Usi diversi

Si diceva però che lo strumento è di per sé neutrale: e difatti OpenAi nel suo report sottolinea come proprio l’intelligenza artificiale possa servire a smascherare questi abusi. È inevitabile che sostenga questo, essendo una ricerca che ha anche una funzione promozionale.

Ma, a ben vedere, quello che rende più evidente è che pure la tecnologia sottostà alle dinamiche di potere. Dove esiste una certa uguaglianza, allora può diventare uno straordinario promotore di conoscenza e progresso.

In un contesto autoritario, invece, può accadere esattamente il contrario. L’accesso agli algoritmi si trasforma in un mezzo di dominio.

Traduzioni rapide

In questo non bisogna pensare solo a utilizzi più complessi e strutturati, che richiedono pure un intervento di personalizzazione degli algoritmi. Gli esempi rintracciati da OpenAi sono spesso più banali.

Ci sono per esempio richieste di traduzione di post pensati per influenzare il dibattito pubblico. Al contrario, vengono richieste traduzioni dall’inglese di particolari documenti provenienti da think thank, come quelli specifici sugli uiguri.

Disinformazione artificiale

Ma non c’è solo la Cina fra i protagonisti di questo “utilizzo particolare” dell’intelligenza artificiale. Alcuni account hanno generato curriculum falsi, profili LinkedIn e lettere di referenza fasulle per ingannare aziende occidentali e ottenere impieghi fraudolenti. In questo caso, sembra che l’obiettivo fosse di raccogliere fondi da destinare poi al regime nordcoreano.

Dalla Cambogia arriva invece una “truffa romantica”: l’intelligenza artificiale serviva a generare messaggi hot da rivolgere a ignari utenti occidentali, adescati sui social.

Infine, alcuni account di provenienza iraniana hanno utilizzato ChatGpt per generare articoli e tweet in spagnolo, francese e inglese, pubblicati su siti collegati a reti di disinformazione. E in Ghana sono stati creati articoli e commenti per i social per favorire uno dei candidati alle elezioni: Mahumudu Bawumia, criticando il rivale John Mahama.

© Riproduzione riservata