Nell’elenco dei buoni propositi per il 2025 di Sam Altman c’è una priorità assoluta: conquistare l’intelligenza artificiale generale, una macchina capace di competere o superare l’essere umano in molteplici ambiti cognitivi. Il fondatore di OpenAI – la società che produce ChatGPT – lo ha confessato in più occasioni, dimostrando il suo entusiasmo nei confronti di quello che, tra i tecno-ottimisti, viene considerato il prossimo gradino della scala evolutiva dell’intelligenza artificiale.

È davvero possibile che, già nei prossimi mesi, venga raggiunto questa sorta di Sacro Graal tecnologico, tanto ambito quanto temuto per le sue potenziali ripercussioni sociali? In realtà, Sam Altman e, in generale, i ceo della Silicon Valley hanno l’abitudine di prodursi in previsioni tanto ottimistiche quanto irrealistiche ed economicamente interessate: far pensare che una tecnologia così potente sia dietro l’angolo aiuta infatti a mantenere alto l’interesse – e quindi i finanziamenti – degli investitori.

A confermare questo sospetto è stato recentemente Oren Etzioni, docente di Scienze Informatiche e per un decennio direttore dell’Allen Institute for AI. Parlando con Business Insider, Etzioni ha spiegato: «Queste previsioni sono sempre state una forzatura e adesso sta diventando ancora più evidente. L’intelligenza artificiale generale è una prospettiva importante, ma è anche importante che le persone distinguano le aspettative realistiche dall’hype».

La fiducia di Altman nell’imminente avvento della AGI (artificial general intelligence) è interamente fondata sulla cosiddetta “legge di scala”. Teorizzata per la prima volta nel 2020 da Dario Amodei (attuale ceo di Anthropic), questa legge prevede che l’intelligenza artificiale progredisca in modo regolare e prevedibile all’aumentare dei dati impiegati per l’addestramento, del potere di calcolo e delle dimensioni delle reti neurali.

Il fondo

Eppure, i segnali più recenti giunti dalla Silicon Valley fanno sospettare che questa “legge” – in realtà più una previsione futura basata su un’osservazione empirica – stia iniziando a vacillare. Alcuni dipendenti di OpenAI hanno infatti rivelato che i progressi mostrati dal successore di GPT-4 (attualmente in fase di sviluppo con il nome in codice Orion) sono stati inferiori alle attese; una situazione molto simile a quella che si sta verificando in casa Google con la nuova versione di Gemini e anche alle difficoltà di Anthropic con il modello Claude 3.5.

Il principale responsabile di questo inatteso rallentamento risponde al nome di “big data”. O meglio: l’assenza di big data. Individuare nuove fonti di dati creati dall’essere umano e di alta qualità – utili quindi per l’addestramento di intelligenze artificiali di livello superiore – si sta rivelando sempre più complesso, confermando l’annoso sospetto che, dopo anni trascorsi a raschiare dal web immense quantità di dati (post dei social media e di forum come Reddit, contenuti di Wikipedia, articoli di giornale, ecc.), si sia ormai giunti al fondo. In poche parole, stiamo esaurendo i dati utilizzabili per addestrare le intelligenze artificiali, mentre la prospettiva dei “dati artificiali” – creati cioè dalle AI stesse – non ha fino a questo momento dato risultati soddisfacenti.

È anche per questa ragione, oltre che per far fronte alle crescenti accuse di violazione del copyright, che OpenAI sta siglando contratti con numerosi gruppi editoriali (tra cui l’italiano GEDI) per avere accesso a contenuti considerati di qualità elevata, mentre altre aziende tecnologiche stanno assumendo esperti di vari settori al fine di etichettare correttamente i dati relativi ad ambiti sempre più complessi: un compito fino a oggi compiuto gratuitamente dagli utenti di internet (per esempio, segnalando la traduzione migliore a Google Translate e selezionando le immagini corrette di un test Captcha) oppure affidato a schiere di “etichettatori” scarsamente qualificati.

Assumere ricercatori universitari o programmatori esperti per etichettare dati complessi e sofisticati richiede tempi molto più lunghi – e costi molto più elevati – rispetto a fare scraping dei contenuti presenti sul web. Tempo e soldi sono però due elementi che iniziano a scarseggiare.

Una brutta sorpresa

Partiamo dal tempo: l’evoluzione dell’intelligenza artificiale generativa è stata rapidissima: i “transformer” alla base dei modelli linguistici sono stati introdotti nel 2017, GPT-3 nel 2020 e ChatGPT nel 2022. Sulla base di questa tendenza, la legge di scala aveva lo scopo di ufficializzare che i progressi tecnologici sarebbero proseguiti alla stessa velocità almeno per il tempo a venire.

Le cose però stanno andando diversamente: come ha chiosato, parlando con Bloomberg, il docente di Data Science Noah Giansiracusa, «ci siamo entusiasmati per un breve periodo di progressi rapidissimi, ma questo ritmo non poteva essere sostenibile sul lungo termine».

Se l’evoluzione dell’intelligenza artificiale sta procedendo a un ritmo meno rapido di quello atteso, lo stesso non si può dire dei costi necessari per sostenerne lo sviluppo: l’addestramento di GPT-4 ha richiesto 100 milioni di dollari, venti volte più della versione precedente, e si stima che in futuro sarà necessario investire fino a un miliardo di dollari per addestrare reti neurali sempre più vaste ed energivore.

Quando perfino un indefesso ottimista come l’investitore Marc Andreessen – autore di un manifesto intitolato “L’intelligenza artificiale salverà il mondo” – inizia a mostrare scetticismo, significa che qualcosa non sta andando per il verso giusto: «Guardando i dati e osservando i grafici relativi alle prestazioni, si intuisce che le capacità di questi sistemi si stanno stabilizzando», ha spiegato Andreessen in una conversazione con il suo socio Ben Horowitz pubblicata su YouTube.

Quella che per molti addetti ai lavori si sta rivelando una brutta sorpresa, non è invece una novità per lo scienziato informatico Gary Marcus, che già due anni fa aveva previsto che il deep learning «stava andando a sbattere». Anche secondo Ilya Sutskever, il cofondatore di OpenAI poi estromesso da Sam Altman in seguito ai noti dissidi, i progressi che si possono ottenere dai large language model di oggi (come appunto GPT-4) hanno raggiunto il picco: «Il decennio scorso è stato quello della scalabilità, adesso siamo nuovamente tornati all’età della scoperta. Sono tutti alla ricerca della prossima innovazione».

Il rinvio della nuova versione

Gli effetti di questo rallentamento iniziano a vedersi: il lancio di GPT-5, atteso per dicembre, è stato rinviato al 2025 senza che ancora sia stata ufficializzata una data precisa (è stato invece lanciato o3, che espande le capacità di “ragionamento” introdotte da OpenAI con o1: un modello considerato “complementare” di GPT-4, ma non il suo successore), mentre gli investitori iniziano a dare segni d’impazienza e perfino una realtà sempre pronto a magnificare le potenzialità delle nuove tecnologie come Goldman Sachs ha iniziato a mostrare dubbi, pubblicando un report intitolato: “Generative AI: troppi costi per troppi pochi benefici?”.

Per il momento, tutto ciò non sembra aver scalfito l’ottimismo di Sam Altman, che si è limitato a dichiarare su X che «non ci sono muri (che possono arrestare l’avanzata dell’intelligenza artificiale)». D’altra parte, per OpenAI conquistare l’intelligenza artificiale generale è una faccenda di vitale importanza. Non solo perché darebbe un senso agli investimenti ricevuti e alle enormi perdite fin qui sostenute, ma anche perché l’accordo commerciale con Microsoft (principale partner di OpenAI) si applica soltanto alle tecnologie “pre-AGI”.

Conquistare l’intelligenza artificiale generale permetterebbe quindi a Sam Altman di svincolarsi parzialmente dall’accordo capestro con Microsoft, che possiede l’esclusiva sui prodotti OpenAI e il diritto al 75 percento degli introiti finché non rientrerà dagli investimenti. Il solo fatto che Satya Nadella, ceo di Microsoft, abbia acconsentito a un accordo di questo tipo, lasciando inoltre che sia OpenAI a determinare il momento in cui l’intelligenza artificiale generale sarà raggiunta, è un ulteriore motivo per sospettare che questo traguardo non sarà conquistato in tempi brevi.

© Riproduzione riservata