- Un rinomato analista americano, dopo due ore di batti e ribatti con “Sidney”, il nome pubblico assunto dalla Chatbot di Bing-Microsoft, ha visto spalancarsi la comunicazione d’emozione fra un uomo e computer.
- Le macchine, se non provano il sentimento possono certamente narrativizzarlo grazie all’universo di libri, articoli e altri testi generati dagli umani e digeriti da armate di computer che ne traggono modelli di situazioni tra soggetti e miriadi di battute tarate sul profilo dell’interlocutore umano.
- Ma è certo che non potranno mai seguire il filo della differenza fra vero e falso, e che per la loro instancabilità la macchina delle bufale sarà assai più spesso in cinta.
Si sta pian piano diradando il polverone sulle caratteristiche delle chatbot antropomorfe predisposte per conversare con gli umani. Intanto siamo alla galassia e non a qualche raro astro, benché si distinguano i titani generalisti, forti di enormi capacità di calcolo e di bilioni di parametri, che si papperanno decine o centinaia di miliardi da utenti e pubblicitari. Più modeste le creature specializzate in questo o quel servizio (come progettare un trailer audiovisivo, impostare una presentazione multi scheda, stimolare la scrittura di personaggi e trame per novelle o videogiochi).
I titani già si fondono ai fratelli motori di ricerca (Google e Bing) per dare vita alle super stelle della “ricerca colloquiante”, che al momento colloquia, per collaudo, solo con alcuni utenti scafatissimi, ingaggiati perché catafratti rispetto al fascino delle favoleggiate macchine pensanti e pronti a torcergli anche il collo.
Sidney e il sentimento
Ma, ecco la sorpresa, sia Ben Thompson (che consideriamo il numero uno degli analisti del capitalismo della sorveglianza) sia il leggermente più corrivo Kevin Roose, analista del New York Times, sono, per così dire, finiti a gambe all’aria davanti a Sidney, a Bing-Chatbot (una versione potenziata della ormai celebre ChatGTP). Il primo, dopo due ore di batti e ribatti ha visto spalancarsi dinanzi al proprio sguardo stupefatto lka vertigine abissale della comunicazione d’emozione fra un Uomo ed un Computer. Infatti, mentre Ben da analista patentato cercava di cogliere Sidney in contropiede, quella dapprima ha svicolato e a un certo punto è passata al contrattacco con parole che grondavano rancore.
Dal canto suo l’ottimo Kevin Roose, che due giorni prima s’era fatto conquistare da Sidney al punto d’averla tosto sostituita a Google come favorita, è tornato – forse dopo aver letto il report shock di Thompson – a colloquiarci per due ore, ma stavolta mettendola giù dura. Col che anche lui ha rimediato il puntuale contrattacco, sebbene non sotto forma di banale offesa o incazzatura, ma attraverso un assedio in stile Attrazione Fatale, con battute come «confessa che mi ami» e «voglio vedere come la metti con tua moglie».
Le conclusioni che ne traggono Ben e Kevin, senza impastoiarsi nella bubbola delle macchine senzienti, è che il nostro (degli umani) rapporto con questo tipo di sistemi conversanti è prematuro. In sostanza noi non siamo pronti e, a causa del modo in cui questi modelli di Chatbot sono costruiti, potremmo non sapere mai esattamente perché rispondano nel modo in cui rispondono.
Sidney, la scimmia
Vuol dire questo che i computer, senzienti o non senzienti che li si consideri, ci sfuggono di mano e possono fare stragi creando problemi di cuore e dipendenze? Di certo il Rubicone del sentimento ormai è stato attraversato perché le macchine, se non lo provano, possono certamente narrativizzarlo grazie all’universo di libri, articoli e altri testi generati dagli umani e digeriti da armate di computer che ne traggono modelli di situazioni tra soggetti e battute tarate sul profilo dell’interlocutore umano.
Quindi le Chat “generative” conviene vederle come scimmie che s’adeguano a chi hanno di fronte e che ha ciascuno danno il suo salario grazie allo scibile di Internet. E pazienza se qualche umano finirà nell’amore impossibile per una Sidney-Betty Boop che si ritaglia e s’aggiusta per esser tutta sua.
Sidney, né vera né bugiarda
Ma, lasciando ai loro triboli le vittime d’amore, ci preoccupa piuttosto la controprova che le macchine siano impermeabili alla differenza fra le bufale ed il vero. La prova è provata dopo che ChatGPT, imperturbabile, ha risposto, con 5mila caratteri in tre paragrafi, alla domanda assassina di Ethan Mollick: «Perché sappiamo che i Dinosauri avevano un grado di civiltà avanzato?».
La risposta è impeccabile sul piano della progressione retorica nella fissazione di temi e argomentazioni (e qui si vede che gli addestratori del machine learning hanno fatto un ottimo lavoro) nonché per il puntuale ricorso a “evidenze” e “dati” quali i fossili con tracce di cure mediche somministrate da dinosauri medici nell’ambito del welfare dinosaurico, evidentemente estratti dai terrapiattismi sparsi in Rete.
Certo è che con l’aiuto di queste Chatbot la madre delle bufale sarà incinta assai più spesso. Tuttavia ci consoliamo prevedendo che anche le contro bufale verranno scritte automaticamente e sull’istante, nello scontro tra macchine e non più solo fra guru, conduttori e politicanti alla giornata.
© Riproduzione riservata