- Fra tutti gli algoritmi con cui interagisco ogni giorno – il cui numero è legione – quello di Spotify ha un posto speciale nel mio cuore.
- Tuttavia gli algoritmi non sono manipolabili, non sono interrogabili, non sono realmente interattivi. Li subiamo, non c’è una vera simbiosi uomo-macchina.
-
Questo racconto si trova sull’ultimo numero di FINZIONI – il mensile culturale di Domani. Per leggerlo abbonati a questo link o compra una copia in edicola
Fra tutti gli algoritmi con cui interagisco ogni giorno – il cui numero è legione – quello di Spotify ha un posto speciale nel mio cuore. Ho un abbonamento premium da molti anni, non so neanche più quanti: e dato che lavoro costantemente al computer, Spotify è sempre acceso, sempre in sottofondo.
Nel tempo, dunque, ho ascoltato i miei autori preferiti, ho recuperato tutta la musica della mia adolescenza, ho costruito una discoteca di pezzi preferiti, che, in questo momento, conta 1.035 brani, cioè quasi cento ore di musica ininterrotta: cento ore di musica che mi piace.
Per molti anni, con una certa disciplina, ogni lunedì cliccavo su “discover weekly”, la playlist di canzoni suggerite da Spotify in base ai miei ascolti e le mie preferenze. Nessuno sa precisamente come funzioni il suo algoritmo di raccomandazione, ma agisce a vari livelli. Sicuramente elabora dei parametri che coinvolgono le preferenze degli utenti con i gusti simili ai miei; tiene conto della lingua della canzone, del testo, dell’infinita e cangiante biodiversità dei generi musicali, numerosi come le specie di invertebrati.
Ma a un livello più profondo, l’intelligenza artificiale viene usata anche per analizzare la canzone stessa, proprio a livello acustico: il registro, il tono, il tempo, il volume.
In questo modo, Spotify si crea un modello numerico, “astratto” del brano, cercando di coglierne l’impronta.
Una sorta di dna musicale.
Senza che neanche me ne accorgessi, dunque l’algoritmo ha scoperto nel tempo una specifica atmosfera musicale che inevitabilmente, ineluttabilmente mi piace. È un certo mood malinconico, elettronico, composto spesso di musica a cavallo del 2000.
Non a caso gli anni della mia adolescenza.
Quelle cento ore
Non so se mi sarebbe possibile, all’interno di quelle cento ore di musica preferita, distinguere le canzoni che ho scelto io consapevolmente da quelle che sono state scelte dall’algoritmo per me. Di fatto, è come se avessi anche un doppio, un gusto “inconscio”, sommerso, che viene razionalizzato solo a posteriori. Come se l’algoritmo mi conoscesse quanto, e a volte meglio, di quanto mi conosco io.
Ne consegue un fatto curioso: ci sono centinaia di gruppi di cui ho ascoltato solo una canzone, esattamente quella suggeritami. Non so nulla di quelle canzoni: titolo, gruppo, album, anno, periodo, genere. Niente. Potrebbero essere avanguardia degli anni ‘70 come rivisitazioni nostalgiche pubblicate l’altro ieri. Sono canzoni assolute, slegate dalla realtà, da qualsiasi informazione, dalla una memoria: non ho ricordi associati a quelle canzoni: né la scoperta adolescenziale nei negozi di dischi, né il consiglio dell’amico, né il CD masterizzato dalla fidanzata. Tutte le volte che mi capita di ascoltarle, nell’esplorazione randomica di quell’infinito paesaggio musicale, è uno strano viaggio in una memoria esterna, come fossero madeleine impiantate nel cervello, che non sapevo di amare: una forma di nostalgia indotta. E se la musica, con i profumi, è fra le cose che più ha il potere di riportare alla memoria i ricordi, questi ricordi non esistono. Una malinconia da cyborg.
Il rapporto con gli algoritmi
Il nostro rapporto con gli algoritmi non è certo “neutrale”: molto banalmente, la prima ragione è che gli algoritmi stessi sono pezzi di software progettati da aziende private il cui obiettivo primario è fare profitto. Ci rendono un servizio, questo sì, ma il servizio è sempre a pagamento: a volte è cash, sotto forma di licenza o di abbonamento. Altre volte la questione è più subdola: le aziende rivendono i nostri dati, noi diventiamo “potenziali consumatori” per aziende terze che ci mostrano pubblicità. In un modo o nell’altro, tutto il mondo dei social media attuale è una grande piattaforma di inserzioni, e la pubblicità è il grande meccanismo che lo governa.
Una vera e propria egemonia. Lo disse qualche anno fa lo stesso Mark Zuckerberg - Ceo di Facebook, ma anche Instagram e Whatsapp - interrogato dal Congresso degli Stati Uniti: We run ads, noi gestiamo pubblicità. Secondo Roberto Calasso, che di mitopoiesi se ne intendeva, quelle tre parole rappresentavano «l’insegna stessa del terzo millennio».
È all’interno di questo sistema economico che si muovono gli algoritmi, novelli “mezzi di produzione” a disposizione delle aziende che detengono le piattaforme.
Non può stupire, dunque, che siano orientati a massimizzare il tempo che i nostri occhi dedicano allo schermo dello smartphone, e i chilometri percorsi dal nostro pollice.
Da circa un decennio il paradigma dell’intelligenza artificiale è profondamente cambiato: se una volta gli esperti di un determinato dominio (dagli scacchi alla visione artificiale) “programmavano” direttamente software perché svolgesse determinati compiti, con la riscoperta delle reti neurali - il cosiddetto machine learning - è avvenuta una rivoluzione.
Attualmente, gli algoritmi di Google, Facebook, Twitter, Spotify, ecc. sono composti da poche righe di codice ma da molti (petabyte) di dati, da cui estraggono pattern e su cui, letteralmente, imparano.
Il nostro ruolo sempre ibrido di utenti si è dunque ulteriormente complicato: siamo clienti spesso non paganti di un servizio, ma anche target di campagne pubblicitarie, ma anche fornitori di dati da dare in pasto agli algoritmi, affinché ci conoscano sempre meglio, affinché gli inserzionisti possano fare campagne pubblicitarie sempre più personalizzate e quindi efficaci. Per farci, infine, diventare i loro clienti paganti.
Era diverso
Questo paradigma è talmente ubiquo da essere davvero la normalità della vita quotidiana digitale di ognuno di noi. Quando guardiamo video, ascoltiamo musica, osserviamo le vite di amici e sconosciuti sui social, scriviamo le mail, la situazione è sempre la stessa. Siamo circondati da algoritmi che ci osservano continuamente, e ci offrono servizi a cui sempre meno possiamo rinunciare. Altro che panopticon.
Non è il peggiore dei mondi possibili, ma neanche il migliore.
Di certo quello che ci era stato promesso, agli albori della vita digitale, nella metà del secolo scorso, era diverso.
Quando i cibernetici pensavano alla “simbiosi uomo-macchina” - titolo di un celebre articolo del J.R.R. Licklider - attribuivano grande importanza al libero arbitrio del primo, e alla capacità del secondo di “aumentare l’intelletto” - titolo di un ancor più celebre articolo di Douglas Engelbart, pioniere delle interfacce fra uomo e computer (tra le altre cose, inventò il mouse e il “copiaincolla”). Il computer personale nasceva allora come protesi della mente, come uno strumento dalla portata rivoluzionaria, pari alla stampa e al libro: enorme capacità di calcolo, biblioteca universale, comunicazione globalizzata, memoria esterna, tutto in uno.
L’intelligenza artificiale era uno stadio evolutivo ulteriore, e un ulteriore alleato per le sfide complesse che il futuro stava portando nel dopoguerra. Avrebbe dovuto interagire con noi, come un assistente, un collega, un partner intellettuale. Una tecnologia che i militari avevano usato per la guerra ma che poteva trasformarsi in tecnologia di pace.
Tutta la storia del digitale è attraversata da questa corrente utopica e un po’ ingenua: gli ingegneri geniali e i sognatori non impareranno mai davvero che per fare le rivoluzioni servono molti soldi, e quando ci sono molti soldi tutto tende a prendere una piega diversa rispetto alle utopie originarie.
Un rapporto mediato
Questo significa che il rapporto fra noi e i “nostri” algoritmi è sempre intermediato dalle piattaforme che li possiedono, e inoltre vuole dire che i loro obiettivi non sono davvero allineati con i nostri.
Un esempio fra tutti è l’engagement, una metrica che tutte le piattaforme amano alla follia: i like, certo, ma anche le condivisioni e i commenti.
Il risultato è che un contenuto “incendiario” - un post o un tweet provocatorio, un video controverso - vengono non solo amplificati dagli algoritmi, ma i nostri commenti di protesta e le nostre condivisioni incazzate li faranno anche diventare quel tipo di contenuti che più ci verrà riproposto.
Più commentiamo indignati alcuni post, più post simili ci verranno proposti, in maniera controintuitiva per noi - non sono i contenuti che ci piacciono - ma assolutamente coerente con le motivazioni intrinseche della piattaforma (che è appunto massimizzare l’engagement).
Ancora: qual è la differenza fra contenuti scelti e contenuti suggeriti, fra zona di comfort ed “esplorazione”?
Pensiamo a TikTok, che continuamente ti fa vedere video da persone che non conosci, fuori dalla cerchia dei tuoi amici e dagli account che segui. Sceglie lui cosa ti piace.
Il pendolo ondeggia sempre fra due poli: identità (quello che ho scelto, la mia zona comfort) contro scoperta (cioè esplorazione algoritmica). Cerchio stretto, ma “mio” e definito, contro cerchio largo, ma sfumato e, soprattutto, “eterodiretto”. Quello che vedo, l’ordine in cui lo vedo, quello che scopro, è sempre scelto da un algoritmo che non posso modificare.
Nulla vieta, a livello tecnologico, di avere algoritmi che possono essere modificati in maniera molto più forte dall’utente stesso. Questo è il white mirror: un presente digitale diverso da quello che stiamo vivendo.
Perché non possiamo davvero interagire con gli algoritmi? Insegnare loro a trovare le cose che davvero ci piacciono? Sostituire ciò che desideriamo noi da quello che desiderano le piattaforme: una serie di “manopole”, di parametri che ci permettano di costruire un rapporto più libero con gli algoritmi. Un’interazione. Un’altra e più libera simbiosi uomo-macchina.
La possibilità di essere più “esploratori” (voglio vedere qualcosa che non vedo di solito) o più “confortevoli” (fammi sentire qualcosa che so che mi piace).
Hey Facebook, fammi vedere tutti i post dei miei compagni delle medie, è una vita che non li vedo. Hey YouTube, fammi vedere tutti i video che piacciono ai miei amici. Hey Netflix, trovami tutte le commedie romantiche anni ’90, quelle che sai che mi fanno piangere. Hey Spotify, spiegami quali sono le canzoni che adoro ed esploriamo insieme tutte quelle che ancora non ho ascoltato. Hey Instagram, smettila con ‘sti reel, fammi vedere le foto dei miei amici. Hey Goodreads, fammi conoscere tutti quei lettori che hanno dato 5 stelle ai miei dieci libri preferiti.
Non possiamo godere appieno dei dati che sono stati raccolti nel tempo dalle piattaforme, dati che noi stesso abbiamo offerto nel tempo. Non è un discorso di principio, ma molto concreto: perché Facebook può vendere questi dati ad un inserzionista che vuole a sua volta vendermi il suo prodotto, e io non posso usare gli stessi dati per trovare persone con i miei stessi interessi?
L’obiettivo delle piattaforme digitali è fare profitto, e il modello di business che hanno scelto (quasi) tutte è quello della pubblicità. Con questo business model, noi siamo i potenziali clienti degli inserzionisti, non di Facebook, che non ci “deve” nulla.
Gli algoritmi oggi, non sono manipolabili, non sono interrogabili, non sono realmente interattivi. Non possiamo imparare da loro e non possiamo sapere quello che loro hanno imparato su di noi. Non possiamo coevolvere insieme, come è sempre stato con nel rapporto fra tecnologia e cultura. Non possiamo chiedergli niente. Non sono nostri. Noi gli algoritmi li subiamo, non sono nostri compagni, non c’è una vera simbiosi uomo-macchina. Siamo clienti, a volte cavie.
Pensare un web diverso non è fantascienza, ma è un gradino sotto: un esercizio di ucronia, pensare un presente diverso se un paio di cose fossero andate diversamente. Un piccola rivoluzione, ma comunque una rivoluzione.
© Riproduzione riservata