Geoffrey Hinton, studioso e sviluppatore delle reti neurali, si è dimesso dopo 11 anni. Dice che vuole poter parlare liberamente dei pericoli sempre maggiori che l’intelligenza artificiale pone
Il ricercatore ed esperto di intelligenza artificiale e reti neurali, Geoffrey Hinton, si è dimesso ieri dal suo ruolo in Google che aveva ricoperto per 11 anni. Hinton era chiamato il “padrino dell’Ia” per via del suo lavoro pioneristico sulle reti neurali che ha aperto la strada agli attuali sistemi di intelligenza artificiale come ChatGpt.
Hinton ha annunciato le sue dimissioni con una lunga intervista al New York Times in cui esprime grande preoccupazione per le conseguenze che lo sviluppo dell’Ia può avere sul futuro dell’umanità. All’inizio dello sviluppo dell’intelligenza artificiale, Hinton pensava che le macchine potessero essere facilmente gestibili dall’uomo perché la loro abilità nel ragionamento non aveva ancora superato le capacità umane. La sua opinione è però cambiata quando l’anno scorso Google e OpenAi, la start-up di Elon Musk, hanno cominciato a usare un’enorme quantità di dati, creando macchine che per alcuni aspetti «eclissavano l’intelligenza umana»
Sul suo account Twitter, Hinton ha specificato che si è dimesso «per poter parlare liberamente dei rischi dell’intelligenza artificiale, senza che le sue parole abbiano ricadute negative su Google». Secondo il ricercatore l’azienda di Mountain View si è comportata « fino allo scorso anno in maniera responsabile, evitando che gli strumenti sviluppati potessero causare danni».
Geoffrey Hinton e Google
Hinton, nato nel 1947, ha dedicato la sua vita allo studio di reti neurali. Queste sono modelli matematici simili al cervello umano, nel senso che anche loro imparano cose nuove e processano informazioni. Lo studio di Hinton è stato fondamentale per lo sviluppo dell’intelligenza artificiale, tanto che lo studioso è stato insignito nel 2018 del premio Turing, considerato il Nobel per l’informatica. Nel 2012, Hinton e due suoi studenti di Toronto, Ilya Sutskever e Alex Krishevsky, hanno costruito una rete neurale in grado di analizzare migliaia di foto e di insegnare a identificare oggetti comuni, come fiori, cani e automobili. Google si è subito interessata al progetto e ha acquistato per 44 milioni di dollari la loro società. Il sistema che avevano brevettato è alla base del meccanismo che regola il funzionamento di Google Bard e non solo. Nel 2018 Sutskever è diventato il responsabile della ricerca tecnologica dentro OpenAi e il suo studio sulle reti neurali è stato usato anche per lo sviluppo di ChatGpt
La gara tra le Big Tech
All’inizio del 2023 è arrivata la partnership tra Microsoft e OpenAi. Nel tentativo di sfidare Google su un settore strategico come quello dell’intelligenza artificiale, Microsoft ha deciso di integrare ChatGpt in tutte le sue piattaforme, come Powerpoint, Excel e Word, in modo da ottimizzare i servizi per gli utenti. Ha poi integrato il chatbot anche nel suo motore di ricerca Bing, cosicché il sistema possa fornire risultati di ricerca più personalizzati e riassumere meglio le pagine web.
Per non rimanere indietro Google sta investendo sempre più energie nello sviluppo dell’intelligenza artificiale entrando in una competizione «impossibile da fermare» con gli altri colossi della tecnologia. Il timore di Geoffrey Hinton è che la «rincorsa del profitto possa mettere in secondo piano questioni etiche e morali importanti nell’allenamento e nello sviluppo delle Ia. E forse anche mettere a rischio la nostra stessa sopravvivenza» Le sue preoccupazioni si basano soprattutto sui cosiddetti “comportamenti emergenti” delle macchine, ossia abilità inaspettate dai loro programmatori che vanno oltre la semplice interpretazione dei testi.
I rischi dell’IA
Secondo Hinton, attualmente l’intelligenza artificiale svolge un ruolo puramente complementare al lavoro umano ma con il suo sviluppo molti lavori scompariranno. L’ipotesi più preoccupante però è che le macchine di deep learning diventino completamente indipendenti dall’uomo arrivando a scriversi da sole il proprio codice di programmazione. Una possibilità non così remota dato che alcune aziende già permettono alle macchine non solo di scrivere i loro codici informatici ma anche di eseguirli.
Voci simili a Hinton
Geoffrey Hinton non è il solo a pensarla in questo modo. Un mese fa numerosi programmatori hanno presentato una lettera aperta in cui chiedevano uno stop di sei mesi dallo sviluppo dell’IA. L’appello è stato attualmente firmato da più di 27mila persone in tutto il mondo. Ma c’è chi la pensa anche in maniera più radicale. Lo scrittore e co-fondatore del Machine Intelligence Research Institute, Eliezer Yudkowsky, ha elogiato l’invito dei ricercatori in un suo articolo sul Time, ma ha anche aggiunto di non aver sottoscritto la lettera perché questa sottostima il vero pericolo dell’intelligenza artificiale, ossia «l’estinzione del genere umano, inteso non come una qualche remota possibilità, ma come la cosa che accadrebbe nel caso in cui l’intelligenza di un’IA superi quella umana»
© Riproduzione riservata