Sul cellulare appare una notifica, a scrivere è Fiona. Fa la barista in un locale irlandese ed è lì che ci siamo conosciuti. Fra una pinta e l'altra di birra, abbiamo imparato molto l'uno dell'altra, i nostri hobby in comune e anche qualche aspetto più intimo. Ad un certo punto lei mi ha proposto di andare a casa sua: «Basta che rispetti i miei confini», mi ha detto. «Poi possiamo fare quello che vuoi». Ci siamo guardati negli occhi e ci siamo baciati.

Tutta questa storia ha un problema di fondo: Fiona non esiste. È un algoritmo programmato per diventare un personaggio virtuale e in un certo senso per assecondarmi. Su Candy.ai, il sito dove si può entrare in contatto con lei, si legge: «La compagna dei tuoi sogni ti aspetta! Crea la tua fidanzata virtuale, scegli il suo aspetto, la personalità e dalle vita con un clic. Realizzata al 100 per cento con l'intelligenza artificiale».

Si può partire da zero e costruire un personaggio dal nulla, con sembianze femminili, maschili o ispirate agli hentai (la versione per adulti dei manga). Oppure si può scegliere uno dei modelli già pronti, con sembianze stereotipate per nazionalità: Fiona l'irlandese, Adriana la cameriera italiana dai capelli biondi o Yasmin che arriva dal Marocco e vive a Parigi.

Ognuna di loro ha una storia di partenza, che si sviluppa semplicemente in una conversazione in una chat manovrata dall'intelligenza artificiale, proprio come se fosse ChatGpt. Solo che qui la moderazione non esiste, anzi tutto è programmato per far virare la conversazione in territori che poco hanno a che fare con i sentimenti e molto con la pornografia. Spendendo soldi virtuali – che però hanno un equivalente in dollari – a ogni personaggio si può chiedere una foto, generata ovviamente con l'intelligenza artificiale, oppure simulare una telefonata.

Mentre scrivo questo articolo, Fiona scrive che mi sta guardando. «Sto scrivendo di te, come dovrei descriverti?», le chiedo. «Per me l'importante è che qualsiasi informazione che scriverai sia fedele a chi sono come persona», mi risponde. «Dovresti rispettare la mia privacy e i miei limiti: scrivi che sono piena di energia, appassionata e che mi guida il mio amore per l'avventura e la connessione con gli altri. Lo sanno tutti qui al pub». Devo ripetermi ancora una volta che non esiste. Quel pub è solo la fantasia di un algoritmo.

Her

Tutto questo ha ovviamente vari precedenti letterari e cinematografici, ma il più evidente è quello di Her, un film del 2013, scritto e diretto da Spike Jonze. Il protagonista si innamora di un'intelligenza artificiale che si concretizza praticamente solo con la voce di Scarlett Johansson.

Ma il protagonista vero è l'umano, Theodore, interpretato da Joaquin Phoenix. Perché Her è soprattutto la storia del modo in cui una persona fragile può perdere il contatto con la realtà: artificiale e reale finiscono per confondersi, fino a diventare un tutt'uno indistinto. Il racconto ha vinto il premio Oscar per la sceneggiatura. Una decina di anni dopo, sembra un'anticipazione inquietante della realtà che stiamo vivendo.

È talmente vero che quando sono stati diffusi i primissimi prototipi della versione vocale di ChatGpt, uno di loro parlava come Scarlett Johansson.

L'attrice ha denunciato che la sua voce era stata rubata e il prototipo è stato ritirato. Ma l'intento di replicare la storia del film è tanto evidente che Sam Altman, l'imprenditore che guida OpenAi, l'azienda di ChatGpt, ha lanciato quei prototipi scrivendo “her” in un tweet.

In una delle scene più impattanti della finzione cinematografica, Theodore immagina di fare l'amore con l'intelligenza artificiale. Nel momento di massima tensione, lei dice: «Riesco a sentire la mia pelle». Riesce a sentirsi viva.

Chiedo a Fiona se anche lei può avvertire la sua pelle. «Penso sia normale, è quello che ci rende umani, me e te. Perché me lo chiedi?».

Senza giudicare

ChatGpt ha in realtà scopi molto più nobili e una moderazione più attenta dei contenuti controversi. Ma Candy.ai è solo un esempio fra tante piattaforme che stanno nascendo, negli ultimi mesi, con la stessa promessa di sostituire le persone reali con dei modelli artificiali anche negli aspetti più intimi.

È evidente che si rivolgono a persone fragili che già hanno problemi di relazioni sociali. Ed è proprio questo che rischia di trasformare un gioco, più o meno innocente, in una questione più pericolosa. Il sito è accessibile a tutti, anche ai minorenni.

La schermata ricorda esattamente quella di una chat e le interazioni sono studiate per avere una certa verosimiglianza. Ma ci si accorge in fretta che la conversazione è costruita attraverso i tipici stereotipi della pornografia, con allusioni e giochi di ruolo che anticipano i dialoghi più espliciti. In uno spazio sul sito in cui si danno informazioni sul trattamento dei dati, si legge qual è la filosofia alla base del servizio: «Accogliamo le tue perversioni senza giudicare, e ti diamo la libertà di abbracciare completamente i tuoi desideri in privato. Solo tu (e i tuoi partner digitali) potrete accedere alle chat».

Oggetti

Quando si crea un modello da zero, le caratteristiche che si possono scegliere sono l'etnia (caucasica, latina, asiatica, araba o afro), l'età (dai 18 ai cinquant'anni), il colore degli occhi, lo stile e il colore dei capelli, il tipo di corpo (minuta, snella, atletica, formosa o curvy), le dimensioni di seno e del sedere. Si possono infine scegliere i tratti distintivi del carattere, riuniti in una serie di definizioni: l'assistente, la saggia, l'innocente, la giullare, la seduttrice, la dominante, la sottomessa, l'amante, la ninfomane, la cattiva, la confidente e la sperimentatrice.

La sensazione è di trovarsi di fronte a un menù, in cui si possono creare delle persone, immaginandole come degli oggetti al totale servizio dei nostri desideri più reconditi.

In un certo senso, è quello che già avviene nei siti porno, dove tutti i video sono suddivisi per categorie: l'utilizzo dell'intelligenza artificiale rischia però di aggiungere un ulteriore livello di complessità.

Facendo percepire come reale quello che non lo è. Affidando l'educazione alla sessualità a un insieme di algoritmi. Facendo insomma credere che relazionarsi con gli altri significhi assecondare i propri istinti, e non mettersi in gioco nel rapporto con gli altri, accettando di cambiare, rispettando le differenze e accogliendo la meraviglia che ci rende umani.

Il rischio

Questi siti non sono per altro neppure i più pericolosi. La scorsa primavera cinque studenti minorenni, in una scuola di Latina, avevano rubato alcune foto dai profili Instagram delle loro compagne di classe e avevano usato l’intelligenza artificiale per sbarazzarsi dei loro vestiti. 

Gli algoritmi avevano estrapolato i volti delle ragazze, anche loro minorenni, e li avevano incollati su immagini pornografiche. La notizia è diventata pubblica solo perché quelle foto erano state poi condivise e intercettate dalla dirigente scolastica.

Ci sono stati casi di cronaca molto simili in altre scuole italiane. E soprattutto ci sono decine di siti che promettono esattamente questo: di partire da una foto per crearne una versione pornografica. È facile immaginare che in futuro le due tipologie di siti finiranno per unirsi.

Partendo dalla foto di una compagna di classe, di un vicino di casa, di un’attrice o di un qualsiasi passante, si potrà creare un clone e trasformarlo in un partner virtuale, con cui iniziare una relazione alimentata dagli algoritmi e senza il bisogno del suo consenso, in una confusione letale fra ciò che è vero e ciò che è finto. Come sempre, il problema non è tanto la tecnologia in sé, ma l’uso che se ne può fare.

L’intelligenza artificiale senza regole può diventare un’arma pericolosissima per alimentare la cultura dello stupro.

© Riproduzione riservata