Il nuovo fronte per l’intelligenza artificiale è la nascita di Safe Superintellingence Inc, nata sulle ceneri del fronte interno che avrebbe voluto licenziare Sam Altman. «Vogliamo puntare tutto sulla sicurezza»
«Ora è il momento. Unisciti a noi». Il tono è quello di un manifesto filosofico o di una chiamata alle armi. Sono le parole che si trovano su un sito semplice, scritto con un codice html così elementare che sembra uscito dal web dei primi anni Duemila.
Ma il messaggio nasconde un progetto più dirompente, perché è firmato da Ilya Sutskever, Daniel Gross e Daniel Levy. Ovvero, da alcuni dei più importanti talenti del settore, compreso colui che era a capo del team scientifico di OpenAi, l’azienda che ha creato ChatGpt.
È l’annuncio che accompagna la nascita di Ssi, la Safe Superintellingence Inc. Ovvero, di una nuova azienda che intende progettare una «superintelligenza». Ma lo vuole fare avendo ben chiaro, fin da questo primo manifesto, l’obiettivo della sicurezza. «Siamo un’azienda americana che ha sedi a Palo Alto e Tel Aviv, dove abbiamo radici profonde e la capacità di reclutare alcuni fra i migliori tecnici. Stiamo costruendo un team snello e competente composto dai migliori ingegneri e ricercatori al mondo, che dovranno concentrarsi sull’Ssi e nient’altro».
Ed è questo il motivo della chiamata alle armi, che rischia di scuotere ulteriormente un settore in cui la competitività è già fortissima e dove si mescolano questioni etiche, talvolta pure un po’ messianiche, e un progresso la cui direzione ancora non è chiara.
Puntare al profitto
Anche perché anche dall’altra parte della barricata, nel cuore di OpenAi, le cose potrebbero cambiare presto. Secondo alcune indiscrezioni rilanciate dai media americani, il ceo Sam Altman ha in progetto di cambiare la natura della sua azienda. Sta immaginando di trasformarla da una società a profitto limitato a un’azienda benefica ma a scopo di lucro, di fatto modificando la natura stessa del suo progetto.
Soprattutto, così OpenAi potrebbe garantire un ritorno più veloce sui circa 14 miliardi di capitale spesi dagli investitori. Ma è proprio in questa dipendenza dai finanziatori, e nella loro esigenza di vedere risultati rapidi e facilmente raccontabili agli azionisti, che potrebbero annidarsi i peggiori rischi per la sicurezza. Almeno secondo i timori di chi vorrebbe un progresso tecnologico più cauto.
Non è da escludere che le due notizie, la nascita di Ssi e la nuova strada che intende intraprendere Altman, abbiano dunque un collegamento. Il personaggio chiave è infatti Ilya Sutskever, co-fondatore ed ex capo scienziato di OpenAi, dalla quale si è dimesso appena un mese fa.
Sutskever è fra gli informatici più noti al mondo, è di origine russa, è cresciuto in Israele prima di trasferirsi con la famiglia in Canada. È fra i massimi esperti di machine learning al mondo: durante il dottorato ha contribuito alla progettazione di AlexNet, una rete neurale che sta alla base di molti processi di riconoscimento delle immagini. Dopo un periodo a Google, è stato fra i fondatori di OpenAi ed è considerato uno dei principali artefici di ChatGpt. Fino allo scorso autunno, quando qualcosa dentro la sua azienda si è rotto.
La guerra
In realtà quello che è successo non è mai stato chiarito nei dettagli, ma in sostanza Sutskever è stato fra i principali responsabili del licenziamento di Altman, lo scorso novembre. Il ceo era stato poi reintegrato nel giro di pochi giorni, dopo la ribellione di una gran parte dei finanziatori e dei dipendenti di OpenAi, con il benestare dello stesso Suskever. Ma la rottura si sarebbe consumata proprio su questioni etiche.
Sutskever avrebbe espresso diverse preoccupazioni su un nuovo modello di intelligenza artificiale che OpenAi stava testando e che non avrebbe dato sufficienti garanzie di sicurezza. In altre occasioni, avrebbe criticato la ricerca di finanziamenti che rischiavano di compromettere la natura umanitaria dell’intero progetto.
La nascita di Ssi sembra dunque un ulteriore passo nella guerra che si sta combattendo per l’intelligenza artificiale, con l’apertura di due fronti opposti. In una delle trincee si è rifugiato chi racconta il sogno di un’intelligenza artificiale sicura e al servizio dell’umanità. Anche se, ufficialmente, chi sta dall’altra parte non fa un racconto poi tanto diverso.
Conseguenze economiche
La questione ha però anche una forte rilevanza economica. Le grandi società di capitali di rischio tendono infatti a non finanziare due aziende che si fanno concorrenza in uno stesso settore. In una realtà così mobile e così potenzialmente allettante probabilmente questa regola ha molte eccezioni. Ma è indubbio che la nascita di Ssi rischia di erodere parte del tesoretto che OpenAi ha messo insieme, in parte proprio grazie alle innovazioni garantite dal team di Sutskever.
Lui intanto ha trovato due alleati di altrettanto grande peso. Daniel Gross (32 anni) è un imprenditore e investitore, che è stato inserito dal Time fra le 100 persone più influenti nel settore dell’intelligenza artificiale. Daniel Levy, da non confondere con l’imprenditore omonimo che è diventato presidente del Tottenham, era fra i più promettenti giovani ingegneri di OpenAi.
© Riproduzione riservata