- I recenti algoritmi che lavorano con deep learning e big data stanno diventando sempre più bravi a fare sempre più cose.
- Vogliamo che la macchina supporti i nostri pensieri e i nostri comportamenti, ma quando ritroviamo nella macchina i nostri pensieri e i nostri comportamenti non ci sentiamo affatto a nostro agio.
- Se la macchina sa comunicare autonomamente come un essere intelligente, si pensa, deve essere anch’essa intelligente, per quanto magari in modo diverso dagli esseri umani. Ma è davvero opportuno continuare a perseguire questa analogia?
I recenti algoritmi che lavorano con deep learning e big data stanno diventando sempre più bravi a fare sempre più cose: generano informazioni in modo rapidissimo e preciso, stanno imparando a guidare le macchine in maniera più sicura e affidabile degli autisti umani, sanno rispondere alle nostre domande, fare conversazione, comporre musica, leggere libri e scrivere testi interessanti, appropriati e – se occorre – anche divertenti.
Nell’osservare questi progressi, però, difficilmente siamo del tutto rilassati, e non solo perché ci preoccupiamo dei bias, degli errori, delle minacce alla privacy o delle possibili intenzioni maligne delle aziende o dei governi. Anzi, più gli algoritmi diventano bravi, più aumenta il nostro disagio.
Uncanny valley
Un recente articolo pubblicato su The New Yorker descrive l’esperienza del giornalista con Smart Compose, una funzione di Gmail che suggerisce come finire le frasi mentre le si sta digitando. L’algoritmo ha completato i messaggi del giornalista in modo così appropriato, conforme al suo stile e pertinente che lui si è ritrovato a imparare dalla macchina non solo che cosa avrebbe scritto, ma anche che cosa avrebbe dovuto scrivere o avrebbe potuto voler scrivere. E non gli è piaciuto per niente.
Questa esperienza, estremamente comune nell’interazione con le presunte macchine intelligenti, viene chiamata «uncanny valley»: un’inquietante sensazione di disagio che compare nei casi in cui una macchina sembra essere troppo simile a un essere umano - o allo stesso osservatore. Vogliamo che la macchina supporti i nostri pensieri e i nostri comportamenti, ma quando ritroviamo nella macchina i nostri pensieri e i nostri comportamenti non ci sentiamo affatto a nostro agio.
Oggi ciascuno di noi comunica abitualmente con dei programmi automatizzati (dei bot) senza badarci: quando compriamo online i biglietti d’aereo, quando chiediamo assistenza sul web, giochiamo ai videogame e in moltissime altre occasioni. Ciononostante, quando riflettiamo e dibattiamo sugli algoritmi, discutiamo ancora della possibilità che una macchina superi il test di Turing, e che possa arrivare una singolarità tecnologica o una super-intelligenza che superi le capacità umane.
Ci confrontiamo con le macchine e non ci piace che vincano loro. Cerchiamo di costruire delle macchine intelligenti, ma poi non ci chiediamo solo se ci siamo riusciti, ma anche se le macchine non stiano diventando troppo intelligenti. Ma è davvero di questo che ci dobbiamo preoccupare? Anche se ci possiamo sentire a disagio quando le macchine sembrano assomigliarci troppo, riteniamo che il rischio fondamentale degli algoritmi è che essi possano competere con l’intelligenza umana?
Non sono umani
Questo libro parte dall’ipotesi che l’analogia tra le prestazioni degli algoritmi e l’intelligenza umana non solo non sia necessaria, ma sia fuorviante, anche se il ragionamento che ci sta dietro è di primo acchito plausibile. Oggi in effetti molti algoritmi sembrano essere in grado di «pensare» e di comunicare. Nella comunicazione come noi la conosciamo i partner sono sempre stati degli esseri umani, e gli esseri umani sono dotati di intelligenza. Se ora il nostro interlocutore è un algoritmo, viene spontaneo attribuirgli le caratteristiche degli esseri umani.
Se la macchina sa comunicare autonomamente come un essere intelligente, si pensa, deve essere anch’essa intelligente, per quanto magari in modo diverso dagli esseri umani. Sulla base di questa analogia, la ricerca si è concentrata sui parallelismi e sulle differenze tra l’intelligenza umana e le prestazioni delle macchine, osservando gli eventuali limiti e facendo dei confronti. Ma è davvero opportuno continuare a perseguire questa analogia?
Il fatto che possiamo comunicare con le macchine non implica che esse abbiano una loro intelligenza che deve essere spiegata (magari spiegando anche i misteri dell’intelligenza «naturale»), ma che, innanzitutto, la comunicazione sta cambiando. L’oggetto della ricerca presentata in questo libro non è l’intelligenza, che è e rimane un mistero, ma la comunicazione, che possiamo osservare e di cui sappiamo già molto.
Sappiamo, per esempio, come la comunicazione sia cambiata nel corso dei secoli e con l’evoluzione della società, passando dalla semplice interazione tra persone presenti in un medesimo luogo a forme sempre più flessibili e inclusive, che consentono anche di comunicare con partner distanti nello spazio e nel tempo, via via più inaccessibili, in contesti anonimi e impersonali. Alla comunicazione vocale e gestuale si sono aggiunte la scrittura a mano e poi a stampa, la trasmissione di immagini fisse, in movimento e anche tridimensionali.
I processi comunicativi
Con l’evoluzione della comunicazione, il ruolo degli esseri umani è cambiato profondamente: oggi non c’è bisogno che i partner condividano lo stesso spazio fisico, non c’è bisogno di sapere chi sono e perché comunicano, e non c’è nemmeno bisogno di sapere che cosa intendono e di tenerne conto. Leggiamo e comprendiamo il libretto di istruzioni della lavastoviglie senza sapere chi lo ha scritto e senza identificarci con il suo punto di vista; interpretiamo un’opera d’arte senza essere vincolati alla prospettiva e all’intenzione dell’autore.
Non è necessario che le informazioni siano memorizzate nella mente di qualcuno (nessuno conosce a memoria il Codice civile), e in tutti i casi di finzione ci identifichiamo con i personaggi dei romanzi e dei film sapendo che non sono mai esistiti e che non sono gli emittenti della comunicazione. L’idea di comunicazione come condivisione di contenuti il più possibile identica tra le menti dei partecipanti è già irrealistica da molti secoli, nella pratica se non nella teoria.
Nella maggior parte dei casi, gli emittenti e i riceventi non si conoscono, non conoscono la reciproca prospettiva, il contesto e i vincoli della controparte, e non ne avvertono l’esigenza. Anzi, questa «intrasparenza» consente gradi altrimenti impensabili di libertà e di astrazione. Che le forme della comunicazione cambino non è una novità e non è nemmeno un enigma. Si tratta piuttosto di individuare e comprendere le differenze e le continuità tra le forme nuove e quelle già familiari.
Attualmente però l’autonomia della comunicazione dai processi psichici dei partecipanti si è spinta un passo più avanti. Occorre un concetto di comunicazione che sia in grado di tener conto anche della possibilità che il partner comunicativo non sia un essere umano ma un algoritmo. Il risultato, che può essere osservato già oggi, è una condizione in cui disponiamo di informazioni di cui spesso nessuno può ricostruire né comprendere la genesi, ma che ciononostante non sono arbitrarie.
Le informazioni generate autonomamente dagli algoritmi non sono affatto casuali e sono del tutto controllate, ma non dai processi della mente umana. Come possiamo controllare questo controllo, che per noi può essere anche incomprensibile? Questa è, a mio parere, la vera sfida che ci pongono oggi le tecniche di machine learning e l’uso dei big data.
L’articolo è un estratto del libro Comunicazione artificiale – Come gli algoritmi producono intelligenza sociale, (Bocconi University Press – Egea, pp. 224, € 22,00) di Elena Esposito
© Riproduzione riservata