Negli ultimi due anni, dopo il lancio di ChatGpt, l’intelligenza artificiale generativa è diventata argomento di un vivace dibattito pubblico. Non si tratta di una moda: l’attenzione è del tutto giustificata, per il rilievo dei risultati raggiunti e per le conseguenze che è lecito aspettarsi in molte sfere della nostra vita economica e sociale, a cominciare dal mercato del lavoro.

La qualità del dibattito, tuttavia, è spesso assai bassa: in molti casi mancano le conoscenze di base indispensabili per poter affrontare il tema in maniera competente, con la conseguente tendenza a preferire risposte semplicistiche (e a volte sbagliate) a domande che sono invece non solo assai importanti, ma anche assai complesse.

"AI literacy”

Avrò modo di parlare di questi temi il 1° giugno a Torino nell’ambito del Festival dell’economia. Sarà un’occasione per riflettere anche e proprio su come far crescere le conoscenze e competenze nel campo dell’intelligenza artificiale.

Nel mondo anglosassone si parla a questo proposito di “AI literacy”, e per farsi un’idea del suo rilievo basti pensare che negli Usa è stata presentata al Congresso una proposta di legge bipartisan denominata “Artificial Intelligence Literacy Act”, interamente dedicata a questo tema.

Ma su quali conoscenze dobbiamo lavorare? Va detto innanzitutto che, come accade in molti altri settori, anche il campo dell’intelligenza artificiale si capisce meglio se si ha un’idea del suo sviluppo storico, ormai abbastanza lungo.

Le ricerche in intelligenza artificiale nascono negli anni Cinquanta del secolo scorso. Due sono le date di riferimento: il 1950, quando Alan Turing pubblica il suo famoso articolo Computing Machinery and Intelligence, e il 1956, quando gli studiosi che avevano cominciato a occuparsi dell’argomento si riuniscono al Dartmouth College per una prima riflessione comune.

In questa fase, la ricerca in intelligenza artificiale ha una forte impronta logico-linguistica. L’idea di base è che l’intelligenza sia legata soprattutto alle capacità di ragionamento e di uso del linguaggio, e che tanto la logica quanto il linguaggio siano analizzabili in termini di sistemi di regole: regole magari complesse, ma che in linea di principio è possibile esplicitare e trasformare in programmi per un sistema informatico.

Il primo “inverno”

Non a caso, collegata alla prima stagione dell’intelligenza artificiale nasce l’idea di “programmazione logica”, e nascono linguaggi di programmazione orientati proprio alla manipolazione di testi e – più in generale – di simboli.

È una stagione di grande ottimismo, che però porta abbastanza presto a dubbi e delusioni: emergono con evidenza le difficoltà legate sia alla complessità delle lingue storico-naturali sia al tentativo di ridurre alla sola logica formale le nostre pratiche di ragionamento e argomentazione.

Il primo “inverno dell’intelligenza artificiale”, che inizia attorno alla metà degli anni Settanta, porta a una stagione molto diversa e meno ambiziosa: sistemi esperti settoriali, progetti in ambiti specifici, sperimentazioni in campi inizialmente trascurati, come quelli relativi alla gestione di dati sensoriali.

Anziché partire da manifestazioni complesse dell’intelligenza, come il linguaggio, si esplorano le sue manifestazioni apparentemente più semplici, come l’interazione con l’ambiente esterno. Scoprendo, peraltro, che anche qui le difficoltà non mancano.

Le reti neurali

La vera svolta, tuttavia, viene da un settore di ricerca che addirittura precede l’Ia classica: le reti neurali. Nate negli anni Quaranta dall’idea di simulare il funzionamento dei neuroni del nostro cervello, inizialmente le reti neurali erano del tutto coerenti con il modello logico-linguistico: erano infatti basate su neuroni che funzionavano usando la logica binaria. Alla fine degli anni Cinquanta uno psicologo statunitense, Frank Rosenblatt, ha proposto un modello di neurone artificiale più complesso, il “percettrone”, che operava con valori reali e non più binari. Ma, se si conoscono i valori, il modello resta deterministico: possiamo capire molto bene cosa fa un percettrone.

La situazione cambia negli anni Ottanta, quando vengono proposti modelli di rete neurale in cui i singoli neuroni si attivano in base a funzioni probabilistiche e non a valori di soglia determinati. In questo modo le reti neurali diventano, se non proprio “scatole nere”, almeno “scatole grigie”: non possiamo più predire in maniera deterministica il loro comportamento.

All’inizio, queste reti neurali mostrano le loro potenzialità soprattutto in compiti discriminativi. Ad esempio, possiamo addestrare una rete di questo tipo con molte immagini (etichettate) di gatti e di cani, e la rete saprà identificare correttamente una nuova immagine. Ma ben presto ci si accorge che, se le addestriamo su grandi quantità di dati, possiamo costruire anche reti neurali generative, che producono contenuti nuovi. Si tratta di un’ulteriore rivoluzione.

Le reti neurali generative non copiano dai dati di addestramento le informazioni che producono: usano quei dati per familiarizzarsi con un certo ambito (ad esempio il linguaggio: è il caso dei grandi modelli linguistici, i cosiddetti LLM, che in un certo senso usano i dati di addestramento per “imparare a parlare”), ma poi producono contenuti nuovi, almeno in parte originali. E – anche grazie a un meccanismo di “attenzione” introdotto nel 2017 da un gruppo di ricercatori di Google – producono contenuti magari fattualmente sbagliati, ma di altissima qualità sintattica e semantica.

Sistemi sorprendenti

Questo sviluppo ha inevitabilmente suscitato un dibattito non solo tecnico, ma anche filosofico: l’intelligenza artificiale ha davvero realizzato, per una strada diversa da quella inizialmente immaginata, il sogno di realizzare sistemi informatici capaci di usare il linguaggio (e di produrre immagini, suoni e perfino filmati “creativi”)? Che conseguenze può avere questo risultato? Non si tratta certo – almeno per ora – di sistemi coscienti, qualunque cosa si intenda per coscienza, ma si tratta di sistemi sicuramente sorprendenti, che dobbiamo imparare a conoscere meglio.


Gino Roncaglia sarà ospite del Festival internazionale dell'Economia (Torino 30 maggio-2 giugno 2024) dove terrà una lecture dal titolo L'architetto e l'oracolo: l'ecosistema digitale e la sfida dell'intelligenza artificiale, Sabato 1 giugno, 19.30 Collegio Carlo Alberto, Auditorium.

Il Festival Internazionale dell’Economia è ideato, progettato e organizzato dagli Editori Laterza con la direzione scientifica di Tito Boeri. La manifestazione è promossa dal TOLC (Torino Local Committee), coordinato dalla Fondazione Collegio Carlo Alberto e composto da alcune delle massime istituzioni torinesi.

© Riproduzione riservata