Negli ultimi anni è emerso un gigantesco settore economico, dal momento che Cina, Stati Uniti, Regno Unito e Unione europea hanno fatto della sicurezza dell’intelligenza artificiale una priorità assoluta. Ovviamente, qualsiasi tecnologia – dalle automobili ai prodotti farmaceutici, dalle macchine utensili ai tosaerba – dovrebbe essere progettata nel modo più sicuro possibile (sarebbe bello se anche i social media fossero stati sottoposti a un maggiore controllo agli inizi).

Ma limitarsi a sollevare problemi di sicurezza non è sufficiente. Nel caso dell’Ia, il dibattito si concentra troppo sulla «sicurezza contro i rischi catastrofici dovuti all’Agi (Artificial General Intelligence)», ovvero una superintelligenza in grado di superare tutti gli esseri umani nella maggior parte dei compiti cognitivi. È in gioco la questione dell’ “allineamento”: se, cioè, i modelli di Ia producano risultati che corrispondono agli obiettivi e ai valori dei loro utenti e progettisti, un argomento che porta a vari scenari fantascientifici in cui un’Ia superintelligente emerge e distrugge l’umanità. Il bestseller The Alignment Problem di Brian Christian è incentrato soprattutto sulle Agi, e le stesse preoccupazioni hanno portato Anthropic, una delle principali aziende del settore, a costruire modelli con proprie «costituzioni» che sanciscono valori e principi etici.

Ma ci sono almeno due ragioni per cui questi approcci possono essere fuorvianti. In primo luogo, l’attuale dibattito sulla sicurezza non solo (inutilmente) antropomorfizza l’Ia, ma ci porta anche a concentrarci sugli obiettivi sbagliati. Poiché qualsiasi tecnologia può essere usata bene o male, ciò che conta in ultima analisi è chi la controlla, quali sono i suoi obiettivi e a quale tipo di regolamentazione è soggetta.

Nessuna ricerca sulla sicurezza avrebbe impedito che un’auto venisse usata come arma durante il raduno dei suprematisti bianchi a Charlottesville, in Virginia, nel 2017. Se accettiamo la premessa che i sistemi di intelligenza artificiale hanno una propria personalità, potremmo concludere che la nostra unica opzione è quella di garantire che abbiano i giusti valori e le giuste costituzioni in astratto. Ma la premessa è falsa, e la soluzione proposta non è affatto sufficiente.

Certo, la controargomentazione è che se mai si raggiungesse l’Agi sarebbe davvero importante che il sistema fosse “allineato” con gli obiettivi umani, perché non ci sarebbero barriere per contenere l’astuzia di una superintelligenza. Ma questa affermazione ci porta al secondo problema di gran parte della discussione sulla sicurezza dell’Ia. Anche se fossimo sulla strada dell’Agi (cosa che sembra altamente improbabile), il pericolo più immediato sarebbe comunque l’uso improprio dell’Ia “non-superintelligente” da parte degli esseri umani.

Supponiamo che ci sia un momento (T) nel futuro (diciamo il 2040) in cui verrà inventata l’Agi e che, fino a quel momento, i sistemi di intelligenza artificiale che non hanno l’Agi saranno ancora non autonomi. (Se dovessero diventare autonomi prima dell’Agi, quel giorno sarebbe T). Ora consideriamo la situazione un anno prima di T. A quel punto, i sistemi di Ia saranno diventati altamente capaci (per il fatto di essere sulla cuspide della superintelligenza), e la domanda che vorremmo porci è: «Chi ha il controllo in questo momento?».

La risposta sarebbe ovviamente “agenti umani”, sia individualmente che collettivamente sotto forma di governi, consorzi o società. Per semplificare la discussione, vorrei riferirmi agli agenti umani responsabili dell’Ia come alla Corporation X. Questa società (potrebbe anche essere più di una società, il che sarebbe ancora peggio, come vedremo) potrebbe usare le sue capacità di Ia per qualsiasi scopo desideri. Se volesse distruggere la democrazia e schiavizzare le persone, potrebbe farlo. La minaccia che tanti commentatori imputano all’Agi sarebbe già arrivata prima dell’Agi.

Conseguenze involontarie

In realtà, la situazione sarebbe probabilmente peggiore di questa descrizione, perché la Corporation X potrebbe portare a un risultato simile anche se le sue intenzioni non fossero quelle di distruggere la democrazia. Se i suoi obiettivi non fossero pienamente allineati con la democrazia (il che è inevitabile), la democrazia stessa potrebbe risentirne come conseguenza non voluta (come è successo con i social media). Ad esempio, la disuguaglianza che supera una certa soglia può mettere a repentaglio il corretto funzionamento democratico; ma questo fatto non impedirebbe a Corporation X di fare tutto il possibile per arricchire sé stessa o i suoi azionisti. Qualsiasi barriera costruita all’interno dei suoi modelli di Ia per impedirne un uso dannoso non avrebbe importanza, perché Corporation X potrebbe comunque usare la propria tecnologia come vuole.

Allo stesso modo, se ci fossero due aziende, Corporation X e Corporation Y, in grado di controllare modelli di Ia altamente capaci, una delle due o entrambe potrebbero comunque perseguire obiettivi dannosi per la coesione sociale, la democrazia e la libertà umana. (E no, l’argomentazione secondo la quale le due aziende si vincolerebbero a vicenda non è convincente. Semmai, la loro competizione potrebbe renderle ancora più spietate). Pertanto, anche se otteniamo ciò che la maggior parte dei ricercatori sulla sicurezza dell’Ia desidera – allineamento e vincoli adeguati sull’Agi – non saremo al sicuro. Le implicazioni di questa conclusione dovrebbero essere ovvie: abbiamo bisogno di istituzioni molto più forti per controllare le aziende tecnologiche, e di forme molto più forti di azione democratica e civica per responsabilizzare i governi che controllano l’Ia. Questa sfida è del tutto separata e distinta dall’affrontare le distorsioni nei modelli di Ia o il loro allineamento con gli obiettivi umani.

Perché, allora, siamo così fissati sul potenziale comportamento dell’Ia antropomorfizzata? In parte si tratta di una montatura, che aiuta l’industria tecnologica ad attrarre più talenti e investimenti. Più tutti parlano di come potrebbe comportarsi un’Ia superintelligente, più il pubblico inizierà a pensare che l’Agi sia imminente. Gli investitori privati e istituzionali si riverseranno sulla prossima grande novità e i dirigenti tecnologici cresciuti su rappresentazioni fantascientifiche dell’intelligenza artificiale superintelligente otterranno un altro lasciapassare. Dovremmo iniziare a prestare maggiore attenzione ai rischi più immediati.

Project Syndicate, 2024.

www.project-syndicate.org

© Riproduzione riservata