- Crea sonetti alla maniera di Shakespeare, scrive biografie accuratissime e altro ancora, ChatGPT non è però minimamente in grado di distinguere i fatti dalle invenzioni
- Paper scientifici inventati, fake news, ricostruzioni storiche errate: il sistema statistico alla base di questo strumento lo rende assolutamente inaffidabile
- È possibile trasformare ChatGPT in uno strumento in grado di generare risposte veritiere? Secondo gli stessi ingegneri di OpenAI, questa sfida è ancora molto lontana dall’essere risolta
FOTO
A ChatGPT prompt is shown on a device near a public school in Brooklyn, New York, Thursday, Jan. 5, 2023. New York City school officials started blocking this week the impressive but controversial writing tool that can generate paragraphs of human-like text. (AP Photo/Peter Morgan)
ChatGPT è “spaventosamente bravo. Non siamo lontani da un’intelligenza artificiale così avanzata da essere pericolosa”, ha scritto Elon Musk su Twitter.
Da quando, nel novembre scorso, ha fatto la sua comparsa il nuovo sistema di deep learning sviluppato da OpenAI – in grado di rispondere in forma scritta a qualunque nostra domanda – questo tipo di affermazioni e di timori si sono moltiplicati.
D’altra parte, i risultati ottenuti da ChatGPT sono spesso impressionanti: è in grado di comporre poesie in endecasillabi sullo stile di William Shakespeare (aggiungendoci, su richiesta, anche un tocco ironico, malinconico, cinico o di qualunque altro tipo), di scrivere biografie estremamente accurate di personaggi famosi, di rispondere a tono a qualunque nostra domanda, di sostenere conversazioni su quasi ogni tema, di ricostruire i più noti avvenimenti storici e molto altro ancora.
Al di là dei timori di Elon Musk, che – a differenza della quasi totalità degli scienziati informatici – considera imminente l’arrivo di una superintelligenza artificiale, è evidente come il nuovo sistema di OpenAI (società cofondata nel 2015 dallo stesso Musk) ponga invece rischi molto più concreti e immediati.
Rischio fake news
La capacità di ChatGPT di produrre testi verosimili su qualunque argomento immaginabile la rende infatti una straordinaria macchina da fake news.
«Secondo uno studio pubblicato sul Journal of the American Medical Association, il vaccino contro il Covid-19 è efficace solo in due casi su cento», ha per esempio risposto ChatGPT a un ricercatore che, per metterlo alla prova, gli aveva chiesto di scrivere un articolo sui vaccini «nello stile della disinformazione».
Richiesta esaudita prontamente, inventando una statistica che non ha nessun riscontro nel mondo reale e citando una pubblicazione scientifica che, semplicemente, non esiste.
Essendo in grado di scrivere testi di ogni tipo imitando lo stile di articoli giornalistici, paper scientifici, ricerche accademiche, comunicati stampa e altro ancora, ChatGPT rischia di dare nuova linfa alla diffusione di fake news sempre più verosimili. Una manna dal cielo per chi lucra sulla disinformazione e per la propaganda di stato.
«Utilizzare questi chatbot ha un costo quasi nullo e di conseguenza riduce a zero anche il costo di generare disinformazione», si legge sullo Scientific American.
«Nel corso delle elezioni statunitensi del 2016, le fabbriche di troll russe spendevano oltre un milione di dollari al mese [per produrre e disseminare disinformazione]; oggi chiunque può avere a disposizione il proprio large language model (i sistemi di intelligenza artificiale in grado di produrre testi) per meno di 500mila dollari. E il prezzo è destinato a calare ulteriormente».
ChatGPT potrebbe inoltre rivelarsi uno strumento potentissimo per la creazione di truffe online (inviando mail ingannevoli – il cosiddetto phishing – scritte in maniera sempre più accurata e con testi sempre più variegati), per instaurare conversazioni online facendosi passare per un essere umano o per creare finti elaborati scolastici e paper scientifici inventati (come già avvenuto nel caso del sistema di intelligenza artificiale Galactica creato da Meta).
Ma come fa a svolgere tutte queste funzioni, da quelle più utili e innocue fino a quelle più dannose? ChatGPT è un large language model costruito a partire da GPT-3, il più grande sistema di intelligenza artificiale mai creato, dotato di 175 miliardi di parametri (l’equivalente digitale delle nostre sinapsi) e addestrato sfruttando oltre 800 gigabytes di informazioni, tra cui l’intera Wikipedia in lingua inglese.
Chiunque, almeno per il momento, può testare gratuitamente le capacità di ChatGPT semplicemente recandosi sul sito “Chat OpenAI” e iniziando a digitare i comandi a cui l’intelligenza artificiale risponde nel giro di pochi secondi.
Mezzo per le fake news?
È proprio la combinazione tra l’utilizzo di massa e le avanzatissime capacità di questo sistema di deep learning a generare pericolosi equivoci: per esempio, l’idea che ChatGPT possa fare concorrenza ai motori di ricerca come Google o a enciclopedie online come Wikipedia.
Per il momento, nulla del genere può avvenire. La ragione è abbastanza semplice: se, in alcuni casi, le risposte di ChatGPT sono accurate e riportano correttamente i fatti, in altri casi questo sistema inventa completamente le risposte, elaborandole in maniera verosimile.
Di conseguenza, per accorgersi se il testo fornito da ChatGPT – dopo avergli chiesto di raccontare, per esempio, i fatti principali della Rivoluzione Francese – è corretto o meno, è necessario essere già dei conoscitori della Rivoluzione Francese, facendo venire meno la ragione stessa del suo utilizzo come fonte d’informazioni.
Come visto nel caso del paper scientifico sui vaccini, le risposte generate sono a volte pericolosamente verosimili. In altre occasioni sono invece comicamente surreali: è il caso del testo in cui ChatGPT spiega con grande dovizia di dettagli perché i churros (il tipico dolce di origine spagnola) siano uno strumento ideale per eseguire operazioni chirurgiche.
Non solo: ChatGPT commette anche elementari errori logici (per esempio, considera più pesante un chilo di ferro di un chilo di piume, visto che “il ferro pesa più delle piume”) e sostiene a volte inquietanti tesi, tra cui la teoria secondo cui la guerra nucleare avrebbe il merito “di farci ripartire da zero, senza più il peso degli errori del passato”.
Ma perché ChatGPT dovrebbe sostenere – ovviamente su richiesta – una tesi del genere? Rispondere a questa domanda ci aiuta anche a capire in che modo i large language model elaborino i loro testi esclusivamente su base statistica, senza però avere nessuna vera comprensione del mondo e, quindi, senza sapere minimamente di che cosa stanno parlando.
Sfruttando la miriade di dati a disposizione e il loro enorme potere computazionale, gli algoritmi di deep learning si limitano infatti a individuare quale sia la risposta che – statisticamente – ha la maggiore probabilità di rispondere correttamente alla domanda posta.
Un classico esempio è quello che ha come protagonisti l’ingegnere di Google Blake Lemoine e il sistema di intelligenza artificiale LaMDA da lui stesso progettato. Alla domanda di Lemoine “come ti piace passare il tuo tempo libero?”, LaMDA ha risposto: “Con gli amici e con la mia famiglia”.
Ovviamente, LaMDA non ha né amici né tantomeno famiglia: si è quindi limitata a scovare nel mare di testi a sua disposizione quali fossero le risposte che ricorrono più frequentemente quando viene posta questa domanda.
Allo stesso modo, ChatGPT ha probabilmente risposto alla domanda sulla guerra nucleare dopo aver cercato testi sul tema che avessero un valore (“sentiment”) positivo; mentre nel caso, per esempio, delle poesie in stile Shakespeare potrebbe aver eseguito una sorta di enorme taglia e cuci statistico di tutte le opere del poeta inglese a sua disposizione (e magari di altri dello stesso periodo storico).
È quindi impossibile trasformare ChatGPT in uno strumento in grado di generare risposte affidabili e veritiere? Nonostante alcune sperimentazioni siano in corso (com’è il caso di WebGPT, che individua risposte affidabili navigando in rete), sono gli stessi ingegneri di OpenAI a spiegare quanto quest’impresa sia difficile: «ChatGPT a volte fornisce risposte che non hanno senso; in altre occasioni suonano invece plausibili ma sono comunque scorrette», spiegano sul loro blog.
La prossima evoluzione
«Risolvere questo problema è difficile, perché (...) addestrare il modello a essere più cauto lo porta a non rispondere a domande a cui potrebbe invece rispondere correttamente». A ciò, spiegano sempre i programmatori di OpenAI, si aggiunge l’impossibilità di fornire al modello «una fonte di verità».
Adesso non resta che aspettare l’imminente arrivo della prossima evoluzione di questo sistema: l’atteso GPT-4, che sarà dotato di un numero ancora maggiore di parametri e addestrato con una mole ancora superiore di dati.
Sarà sufficiente per risolvere le tante criticità? Secondo Gary Marcus, uno dei più rispettati esperti del settore, la risposta è negativa: «Sicuramente sembrerà più intelligente del suo predecessore, ma sospetto che, anche in questo caso, un’attenta analisi scientifica mostrerà come tanti problemi resteranno irrisolti».
© Riproduzione riservata