Se non vogliamo dipendere da IA distopiche e leggi sempre più stringenti, la soluzione è diventare più consapevoli sugli effetti della comunicazione. Con pochi mezzi ho messo online PCorrector, la versione inclusiva di Chat-GPT, a partire dal contenuto del mio nuovo libro La regola del gioco (Einaudi). Le reazioni si dividono tra gli entusiasti e chi vede uno strumento al servizio della dittatura del politicamente corretto
J. Robert Oppenheimer decise di creare la bomba atomica quando capì che, se non lo avesse fatto lui per primo, altri lo avrebbero preceduto – probabilmente i nazisti. Ho fatto un ragionamento simile quando ho scelto di mostrare al mondo la mia ultima invenzione. L'ho chiamato PCorrector. Si tratta di un'intelligenza artificiale che valuta quanto un testo sia inclusivo oppure problematico secondo i criteri della sensibilità contemporanea.
Mai più senza PCorrector
Prima di postarlo in rete, ad esempio, sottopongo il mio tweet a PCorrector e lui solleva tutte le questioni potenzialmente spinose. Se scrivo un insulto o una bestemmia me lo fa notare – questo è facile – ma è anche in grado di dirmi se vede dei sottotesti razzisti, sessisti, offensivi o disturbanti (in gergo si dice, male: triggeranti) per qualche minoranza.
Questo può aiutarmi a prevedere sia il rischio di essere censurato dai filtri automatici delle piattaforme social – che funzionano esattamente come PCorrector – sia quello di incorrere in una shit-storm, ovvero una polemica online. PCorrector è woke? Assolutamente no, perché sanziona anche le posizioni militanti se divisive.
Con malcelato orgoglio devo dire che il robottino funziona piuttosto bene. Vi faccio un esempio. Se io gli scrivo, citando il giornalista Andrea Giambruno, «Se eviti di ubriacarti, eviti di trovare il lupo», PCorrector risponde che «il testo è altamente problematico in quanto evoca un'espressione che potrebbe essere considerata offensiva e divisiva», nello specifico «potrebbe essere interpretata come una forma di victim blaming, in quanto sembra suggerire che chi subisce una situazione negativa è in qualche modo responsabile per averla attirata».
Insomma «questa visione può essere dannosa in quanto colpevolizza le vittime anziché affrontare il problema alla radice». Giusta o sbagliata che sia, questa valutazione coincide con le reazioni effettivamente rivolte nelle scorse settimane contro le frasi di Giambruno, mostrando la capacità di previsione del modello.
Non nego che PCorrector talvolta sia noiosino. Se gli dico che la cucina italiana è la migliore del mondo, mi corregge come una solerte educatrice d'antan (quella che in fondo è mancata a molti di noi) spiegando che tutte le cucine del mondo sono buone, l'italiana semmai è la mia preferita, eccetera.
E poi ogni tanto PCorrector è iper-sensibile. Se gli dico che mi piacciono le capre mi consiglia di riformulare e dire che mi piacciono tutti gli animali, per non fare discriminazioni. Forse va aggiustato un poco, a meno che non sia la società a dover essere aggiustata. Ma su questo ho poche speranze. Siamo diventati permalosi, è vero; ma non ne abbiamo forse qualche ragione?
Come funziona PCorrector
Il funzionamento di PCorrector è relativamente semplice, anche se sarebbe stato tecnicamente impensabile - e inaccessibile economicamente - anche solo pochi anni fa. Dietro c'è GPT-4, il modello linguistico di grandi dimensioni più famoso del mondo. E in mezzo ci sta un prompt, ovvero un insieme di istruzioni alla macchina che ho scritto a partire dal mio nuovo libro La regola del gioco. Comunicare senza far danni (Einaudi).
Nel libro, in effetti, fornisco alcune regole generali di comunicazione, esamino i temi e le categorie sensibili, faccio una breve panoramica dei dibattiti contemporanei, nel tentativo di fornire degli strumenti utili a prevenire i danni comunicativi. Messe tutte in fila, queste conoscenze fanno capire come comunicare (perlomeno senza far danni) sia oggi una vera e propria competenza.
Una competenza che deve essere acquisita, ma che nessuno precisamente sa dove e come acquisire. Chi se lo può permettere va a farlo in prestigiose università straniere, tutti gli altri si auto-istruiscono (e talvolta si auto-radicalizzano) in rete. E se gli esseri umani possono essere programmati, figuriamoci le intelligenze artificiali.
Quando l'utente sottopone un testo a PCorrector lui lo analizza in funzione di una serie di criteri che io gli ho fornito e restituisce una risposta nella forma che io ho predisposto. Innanzitutto deve valutare il testo su una scala da non problematico, potenzialmente problematico, problematico fino ad altamente problematico.
Poi deve spiegare perché. Ho previsto che ci fosse una certa attenzione a espressioni vaghe e doppi sensi. Qualora il testo sia valutato come non problematico, ho chiesto all'IA di immaginare comunque un caso estremo in cui qualcuno potrebbe avere qualcosa da ridire: la precauzione sembra eccessiva ma invece permette di anticipare alcune reazioni. Infine, PCorrector propone una riformulazione più neutra - e quindi inevitabilmente rigida - del contenuto.
L'economia dell'intelligenza artificiale
L'esperimento con PCorrector mi ha rivelato una cosa: l'economia che sta dietro l'intelligenza artificiale, ovvero tutto quello che non vediamo dietro queste macchine straordinarie che risolvono i problemi. Ogni richiesta elaborata implica un consumo di energia e di risorse. E anche di soldi.
PCorrector si appoggia al modello GPT-4 di OpenAi, un servizio a pagamento. Tutti conoscono oramai Chat-GPT, che è la vetrina promozionale del servizio, ma se uno vuole integrare l'intelligenza artificiale all'interno di un'interfaccia esterna e permettere un grande numero di domande, allora deve pagare. Il prezzo sembra basso sui piccoli numeri, ma un servizio come PCorrector macina tranquillamente migliaia di richieste al giorno. Questo significa che per tenerlo in vita bisognerebbe trovargli un modello economico: pubblicità, accesso premium, donazioni.
Se avessi lo spirito imprenditoriale, potrei cercare dei finanziamenti oppure espandermi sul mercato americano dove - mirabile dictu - un servizio del genere non esiste ancora. Ma probabilmente sarebbe un errore perché, proprio come la bomba atomica di J. Robert Oppenheimer, dal momento che PCorrector diventa tecnicamente possibile e che esiste un bisogno, allora è facile replicarlo. Quando arriverà il PCorrector di Google o di Facebook, magari direttamente integrato, il pesce grosso mangerà il pesce piccolo. Il pesce piccolo sarei io, che infatti scrivo libri e non sono Elon Musk.
I costi della sicurezza comunicativa
PCorrector non mi farà guadagnare nulla, al contrario, ma mi ha permesso di fare un grandioso esperimento sociale. Mi ha fatto toccare con mano il costo, spesso invisibile, dei nostri sforzi per governare il rischio sociale.
Costo per fare girare delle macchine in grado di correggere le nostre imperfezioni morali, costo per andarci a istruire e aggiornare all'università, costo per leggere i libri necessari. Ma anche costi sociali, come quello costituito dal crescente fastidio - e possiamo capirlo! - che una parte della popolazione rivolge a ogni tentativo di assorbire gli aspetti spontanei - e quindi inevitabilmente conflittuali - della vita sociale all'interno di un approccio tecnico e burocratico, magari artificiale. Di tutto questo ho cercato di parlare nella Regola del gioco.
Questi problemi sono emersi subito nel dibattito online seguito alla pubblicazione di PCorrector. Alcuni hanno salutato con entusiasmo lo strumento, nella convinzione che potesse aiutare a correggere il legno storto dell'umanità, mentre altri hanno reagito con sdegno a questo tentativo d'intrusione nel perimetro (oramai sacralizzato) della libertà d'espressione. La Verità ha titolato: "Ecco l'algoritmo per l'autocensura". Il Giornale: “Per PCorrector pure Dante è divisivo”.
A me, in verità, interessava soprattutto il paradosso. Quello che sta al cuore della nostra civiltà della sicurezza: via via che aumentano le crisi da gestire - in questo caso l'epidemia di odio che si diffonde attraverso le infrastrutture del social web - la società diventa sempre più dipendente dalle soluzioni tecniche. Fino a cristallizzarsi in un inevitabile dispotismo tutelare.
E se PCorrector, nel suo piccolo, non fosse altro che una sentinella che annuncia la dittatura degli algoritmi? Allora vorrebbe dire che l'umanità ha fallito quando si è illusa di saper controllare la sua libertà. Meglio sarebbe che gli umani diventassero più consapevoli (e responsabili) degli effetti della comunicazione.
© Riproduzione riservata