Nel 2012, la compagnia farmaceutica Merck ha organizzato una competizione per l’individuazione di molecole che potessero diventare la base di nuovi farmaci, partendo da una banca dati che conteneva informazioni sulla struttura di migliaia di molecole.

A sorpresa, il gruppo concorrente vittorioso (quello più accurato nell’identificazione delle molecole più promettenti) era composto da dottorandi dell’università di Toronto, con la supervisione del professor Geoffrey Hinton, nessuno dei quali aveva conoscenze di biochimica: erano tutti informatici.

Il loro algoritmo si basava “semplicemente” su un approccio statistico che individuava regolarità senza particolari basi teoriche, e sfruttava la banca dati per determinare quale molecola avrebbe avuto maggior probabilità di successo.

Solo pochi anni dopo, DeepMind, un’impresa controllata a Alphabet (Google), ha introdotto Alphafold, un algoritmo che, di nuovo su basi quasi esclusivamente statistiche, riesce a determinare la struttura delle proteine a partire da sequenze di amminoacidi con straordinaria precisione. Le implicazioni di questi risultati per il benessere e la salute degli individui sono enormi.

Questi algoritmi rappresentano ciò che oggi chiamiamo Intelligenza artificiale (Ia). In alcuni casi, sono conosciuti dagli esperti del settore da quasi cento anni. Ma solo negli ultimi decenni, grazie all’enorme accumulazione di dati in forma digitale e alle capacità di calcolo dei computer, hanno mostrato le loro prestazioni strabilianti in vari ambiti. In particolare, l’approccio basato sull’utilizzo di reti neurali – il cosiddetto deep learning – è diventato dominante grazie alle sue applicazioni nel campo della salute, del riconoscimento di immagini, dell’addestramento di robot. 

Oltre alla capacità predittiva di questi algoritmi, negli ultimi anni si è aggiunta quella generativa. Attraverso semplici istruzioni in linguaggio naturale fornite dall’utente (e non tramite un linguaggio di programmazione), L’Ia generativa può fornire, ad esempio, spiegazioni per qualsiasi argomento, ma anche produrre programmi informatici, traduzioni, email, articoli, immagini.

Troppo entusiasmo?

È davvero difficile, di fronte a queste meraviglie tecnologiche, non unirsi al vasto gruppo di entusiasti (osservatori, politici, accademici) che evidenziano l’indubbia positività di questi progressi, vedono nella loro crescente adozione un importante motore di crescita e prosperità, e promuovono un laissez faire regolatorio che ne minimizzi restrizioni all’uso e favorisca sempre più applicazioni.

Ci sono, tuttavia, molte ragioni per cui sarebbe bene riflettere prima di cedere a un entusiasmo incondizionato. Ci limitiamo qui a tre punti essenziali.

Il primo è quello più discusso: l’impatto dell’Ia sul lavoro. Nel recente saggio Potere e progresso, gli economisti Daron Acemoglu e Simon Johnson sostengono che l’impatto dell’Ia sull’occupazione dipenderà dal tipo di sviluppo tecnologico che le imprese e la società in generale sceglieranno.

In alcuni casi, come nella medicina o l’educazione scolastica, l’Ia può contribuire a migliorare diagnosi e terapie, oppure la definizione di piani di apprendimento personalizzati. La presenza umana rimarrebbe però indispensabile. L’automazione industriale tramite robot o l’uso di assistenti virtuali hanno invece effetti sostitutivi del lavoro umano, senza, almeno finora, offrire un servizio sensibilmente migliore.

Lo stesso vale per lavori che i modelli generativi possono compiere senza l’assistenza umana, come la scrittura e la produzione di immagini. L’evidenza mostra che la tendenza sostitutiva e banalizzante sta prevalendo su quella integrativa del lavoro.

Non solo: se gli effetti della robotica si concentravano sui lavori a bassa specializzazione, quelli dell’Ia più in generale colpiscono anche i lavori ad alta specializzazione. Non mancano poi gli effetti di queste tecnologie sulla sorveglianza dei lavoratori, andando a ledere il diritto alla privacy e con esso la qualità del lavoro stesso.

La qualità del dibattito

Il secondo tema riguarda la qualità dell’informazione e del dibattito pubblico. Il potere predittivo dell’Ia serve alle imprese per definire, grazie ai nostri dati personali, i prodotti a cui siamo più interessati e le notizie a cui più presteremo maggior attenzione. I social media stimolano traffico e coinvolgimento, e quindi ricavi pubblicitari, personalizzando i contenuti e stimolando sensazioni che più spingono alla partecipazione attiva, come identità, rabbia e odio.

Si formano così “casse di risonanza” in cui riceviamo soprattutto informazioni che confermano le nostre credenze, senza stimolare lo spirito critico. Ed è proprio questa polarizzazione che poi stimola la creazione di contenuti falsi, ma verosimili, che giornali e avversari riprendono per screditare politici e attivisti. Questa tendenza fornisce terreno fertile a chi, come la destra radicale e illiberale, specula sull’odio e le divisioni, logorando progressivamente le nostre democrazie.

L’Ia avrà sicuramente un notevole impatto, infine, anche sulla nozione più generale di cultura. Gli algoritmi generativi non fanno altro che ricombinare nozioni già esistenti, sfruttando (spesso gratuitamente) le opere dell'ingegno altrui. In questo modo si riduce lo spazio per l’originalità individuale, che nella storia umana è sempre stata alla base non solo dell’arte, ma anche delle nuove scoperte scientifiche.

Il rischio è quello di un livellamento verso il basso della qualità dei prodotti culturali per raggiungere la cosiddetta “qualità accettabile”: niente di straordinario, tutto uniformemente mediocre, e nulla che ci stimoli a riflettere mostrandoci qualcosa di insolito e inaspettato. Una fruizione così personalizzata di prodotti culturali potrebbe avere anche un impatto negativo sulla dimensione sociale, di condivisione e confronto della cultura. Verrebbero meno occasioni di “esperienze condivise”, come le definisce il giurista Cass Sunstein nel suo #republic, che sono fondamentali per la convivenza pacifica e la coesione sociale.

Anticipare e correggere

La pervasività e velocità di sviluppo delle applicazioni dell’Ia sono tali da rendere questa tecnologia molto più di un mezzo “neutro”, un fattore di produzione applicabile a tanti ambiti come è stata ad esempio l’energia elettrica un secolo fa.

Per usare le recenti parole di papa Francesco, si tratta di uno strumento «affascinante e tremendo». Sempre più osservatori, anche tra quelli inizialmente più entusiasti, vedono ora una traiettoria di sviluppo di queste tecnologie che favorisce il capitale sul lavoro, indebolisce le democrazie rinforza regimi illiberali e intrusivi, e banalizza la produzione culturale.

La politica quindi, a sua volta, non può essere neutrale, e deve piuttosto rivendicare un ruolo fondamentale di guida e un approccio proattivo, per anticipare e correggere pericolose distorsioni prima che sia troppo tardi. Questo può richiedere interventi sostanziali.

Lo Ai Act dell’Unione europea, per esempio, limita certi usi dell’Ia al fine di proteggere la privacy e limitare la diffusione di contenuti contraffatti. Un’altra leva è la politica tributaria, come lo spostamento di parte dell’imposizione fiscale dal lavoro al capitale, che potrebbe disincentivare l’eccessiva sostituzione del lavoro umano con macchine e robot, o la tassazione dei proventi pubblicitari delle piattaforme online per ridurre il ricorso a modelli di business basati sulla pubblicità che quindi traggono beneficio da un uso dei social media più frenetico e meno critico.

Una maggiore influenza dei lavoratori e dei sindacati nelle scelte aziendali favorirebbe investimenti in tecnologie che meglio contemperino le esigenze di tutti i portatori di interesse. Norme più stingenti sul diritto d’autore renderebbero più costoso l’utilizzo del lavoro creativo di altri per alimentare gli algoritmi, e di conseguenza più appetibile la ricerca del nuovo e inaspettato.

L’obiettivo, ovviamente, non è ostacolare processo innovativo e quindi la crescita economica. Ma ogni rivoluzione tecnologica è sempre stata orientata dalla politica e dalla società, a volte in maniera casuale, ma più’ spesso attraverso un dibattito informato, plurale, pubblico e diffuso su eventuali costi e benefici. La celebre esortazione di Spinoza che recita «non disperarci, non detestare, ma comprendere», sembra particolarmente adeguata per definire la filosofia da adottare nell’affrontare le sfide e le opportunità dell’Intelligenza Artificiale. C’è da chiedersi se le nostre società e classi politiche saranno abbastanza mature (e libere) da seguirla.

© Riproduzione riservata