- È corretto che una persona si faccia rappresentare nel metaverso da un’etnia e un genere differente dal suo? E quali sono i confini da mettere?
- Riuscirà una realtà come Facebook, che non è mai riuscita a risolvere i problemi di moderazione dei contenuti, ad affrontare le colossali sfide presentate dalla realtà virtuale?
- Rispetto al passato, oggi abbiamo però un importante vantaggio: stiamo affrontando questi problemi con largo anticipo
Nel metaverso potremo essere chi vogliamo, godere di una totale libertà e lasciarci definitivamente alle spalle i vincoli della biologia o della fisica. O forse no. Ancora non sappiamo che forma prenderà questo mondo immersivo e digitale – in cui ci caleremo sfruttando la realtà virtuale e a cui stanno lavorando i principali colossi tech: da Facebook/Meta a Epic Games, da Tencent a Nintendo e molti altri ancora –, ma già iniziamo ad avere un’idea di quali saranno i problemi etici, morali e sociali che si presenteranno al suo interno. Problemi che, in molti casi, non sono altro che la trasposizione nel metaverso di quelli che già dobbiamo affrontare nel mondo fisico, ma che rischiano di intensificarsi in maniera esponenziale.
Potremmo riassumere una parte di questi problemi usando il termine “blackface digitale”. La blackface è la pratica razzista che si verifica quando i bianchi si dipingono il volto di nero per imitare una persona di colore. Una pratica che nel metaverso potrebbe assumere forme di diverso tipo e metterci anche di fronte a varianti – non per forza legate al colore della pelle – dalla gestione più complessa. Partiamo da un esempio base: è corretto che un uomo bianco si faccia rappresentare nel metaverso da un avatar che incarna una donna nera? E se invece ci si limitasse al cambiamento di genere? Ed è corretto che una donna magra scelga di avere un avatar sovrappeso o sarebbe irrispettoso?
Adattarsi al metaverso
Sono tematiche delicate e scivolose che spesso non hanno risposte nette, soprattutto considerando che un uomo o una donna potrebbero dotarsi di un avatar di genere differente proprio per esprimere o sperimentare l’identità che sentono loro, senza affrontare le difficoltà e i timori che magari provano nel mondo reale. Il problema, come sempre in questi casi, è capire dove porre i confini: «Le risposte non sono semplici», ha spiegato Matthew Ball, uno dei massimi esperti di metaverso, parlando con Vogue Business. «Le piattaforme faranno errori e anche gli utenti. Adattarsi al metaverso richiederà nuove abilità e anche di accettare nuove incertezze».
Il rischio è quindi di trasportare nel mondo digitale – intensificandole – questioni ancora molto lontane dall’essere risolte in quello fisico, dove rappresentano uno dei principali e più accesi argomenti della nostra epoca. Sian Hawthorne, docente di filosofia dell’università di Londra specializzata in questioni di genere, ha provato a guardare le cose anche da un’altra prospettiva: «Da un lato, potrebbe essere problematico che un uomo bianco scelga l’avatar di un nero o di una donna, soprattutto in un contesto di intrattenimento. Dall’altra, ci sono dei dati che suggeriscono che assumere una diversa personalità in realtà virtuale porti alla riduzione dei bias impliciti, perché può diventare un modo per affrontare reazioni e percezioni da parte di altre persone, aprendo gli occhi su ciò che avviene ogni giorno nel mondo reale».
Influencer digitali
Come dire, subire il razzismo nel metaverso può rendere più consapevoli del razzismo nel mondo reale. Un’osservazione alla quale si potrebbe obiettare segnalando il rischio che persone bianche pensino di aver compreso cosa significhi subire il razzismo perché “l’hanno subìto nel metaverso” (un problema che riguarda, più in generale, tutto il filone dell’empatia in realtà virtuale).
Questi aspetti diventano di cruciale importanza anche per i marchi che puntano a entrare con i loro business nel metaverso, per esempio utilizzando influencer digitali – privi quindi di un corrispettivo nel mondo fisico – che vagano per il metaverso per promuovere un brand. E se fosse un ingegnere bianco a progettare una influencer digitale appartenente a una minoranza? È accettabile?
Sempre secondo Hawthorne, la risposta è positiva: ingegneri e brand di moda possono creare in maniera rispettosa personaggi di etnia e genere differente da chi li ha creati. Per chiarire il suo concetto, la docente di filosofia fa l’esempio dei romanzieri: «Non penso che le persone ti diranno mai che puoi soltanto riprodurre te stesso: siamo esseri umani e siamo dotati di immaginazione, e non penso che qualcuno voglia mettere fine a tutto ciò. È però importante essere consapevoli degli stereotipi e di quanto possano essere dannosi».
Un problema di moderazione
Nonostante sia possibile affrontare queste problematiche in maniera rispettosa, la loro intrinseca complessità fa sì che il rischio di essere accusati – a ragione o a torto – di appropriazione culturale sia sempre dietro l’angolo, ragion per cui alcuni brand potrebbero decidere di aggirare il problema. Proprio per questo, tra i vari influencer digitali creati dalla startup Diigitals c’è anche Galaxia, che ha la pelle blu, gli occhi da elfo e non è quindi riconducibile a nessuna etnia terrestre. Una soluzione che potrebbe essere adottata anche da normali utenti che vogliono sperimentare identità e forme differenti senza incorrere in comportamenti – magari inconsapevolmente – inappropriati.
Una soluzione di questo tipo sarebbe sicuramente preferibile anche per chi il metaverso lo sta progettando a livello infrastrutturale. Facebook/Meta, per esempio, sembra essere consapevole di quanto i problemi di moderazione dei contenuti – che non è mai riuscita a risolvere all’interno dei suoi social network – rischino di ripresentarsi in forme ancora più gravi nel mondo digitale e immersivo che Mark Zuckerberg ha annunciato in pompa magna a ottobre, in occasione dell’evento Connect.
Intelligenza artificiale
In un report interno diffuso per primo dal Financial Times, Andrew Bosworth, responsabile di Facebook per la creazione del metaverso e quindi colui che gestirà un budget da 10 miliardi di dollari l’anno, ha indicato di volere per il suo mondo virtuale «dei livelli di sicurezza degni della Disney», pur dichiarandosi consapevole del fatto che moderare significativamente il modo in cui le persone parlano e si comportano «è praticamente impossibile». Sempre nel memo, è indicato come la realtà virtuale possa essere un ambiente tossico per donne e minoranze e come, di conseguenza, potrebbe trasformarsi in una “minaccia esistenziale” per i piani di Facebook qualora i problemi non fossero affrontati in maniera adeguata.
È possibile monitorare miliardi di interazioni in tempo reale? Come si passa dalla moderazione dei contenuti alla moderazione dei comportamenti? E soprattutto, quali sono le chance di riuscire nell’impresa per chi ancora oggi ha difficoltà a gestire l’ecosistema dei social network?
Facebook punta soprattutto su tre strumenti: l’intelligenza artificiale, che – nonostante i successi finora non travolgenti – potrebbe riconoscere comportamenti sospetti (per esempio l’avatar di un uomo che approccia in continuazione dei bambini); la registrazione di tutto ciò che avviene a un utente (salvato solo sul suo dispositivo), che gli consente di inviare ai moderatori la testimonianza diretta delle esperienze negative; la “zona di sicurezza personale” in cui sarà possibile accedere in qualunque momento isolandosi da tutti gli altri utenti. Per completare il quadro mancano solo gli avatar dei poliziotti che pattugliano gli ambienti del metaverso.
Soluzioni da subito
Già queste prime indicazioni ci danno però un’idea della sfida enorme che Facebook/Meta (e tutti gli altri colossi che puntano sul metaverso) si trovano davanti. Il tema diventa ancora più complesso se si considera che l’effetto provocato da molestie e bullismo in realtà virtuale «ha un impatto psicologico molto superiore», come ha spiegato sempre al Financial Times Kavya Pearlman, fondatrice della no-profit XR Safety Initiative, che si occupa di sviluppare standard di sicurezza per i nascenti mondi virtuali. Secondo Pearlman, subire esperienze negative in realtà virtuale è molto più simile a subirle nel mondo fisico di quanto non avvenga sui social network.
«Il nostro obiettivo è far evolvere la cultura al punto che, sul lungo termine, non ci sarà nemmeno bisogno di mettere frequentemente in pratica queste misure di sicurezza», ha spiegato sempre Andrew Bosworth nel memo, in uno slancio di ottimismo quasi commovente. È comunque sicuramente positivo che Meta stia finalmente cercando di rendere sicura “by design” – fin dalla progettazione – questa nuova vastissima infrastruttura tecnologica, soprattutto considerando che eravamo abituati a un approccio opposto, in cui prima si lanciava sul mercato il prodotto finito e solo dopo si mettevano pezze a tutte le problematiche emerse.
Adesso, grazie all’esperienza maturata in seno alle aziende e soprattutto alla società, è possibile cercare soluzioni quando il metaverso si trova ancora in una fase embrionale. Alcuni ostacoli, a partire dalla moderazione dei comportamenti, sembrano però già oggi insormontabili. E probabilmente ne sorgeranno altri che non riusciamo ancora nemmeno a immaginare.
© Riproduzione riservata