Chi è Geoffrey Hinton, il padre dell'IA appena dimessosi da Google

Geoffrey Hinton, 75 anni, è conosciuto negli ambienti informatici come il padrino dell'intelligenza artificiale. Per il suo lavoro nell'IA ha vinto il Premio Turing 2018 e l'attuale boom dell'IA, produttivo o meno, è (anche) merito suo. Scopriamo di più sulla sua carriera e sulla sua fama

Geoffrey Hinton chi e

Jeffrey Hinton ha 75 anni e si sente come Robert Oppenheimer. “Stiamo contribuendo a costruire un'arma che potrebbe distruggere la razza umana. Non il nucleare, ma l'intelligenza artificiale.” È frutto di un'intervista del tutto singolare a seguito dele sue dimissioni da Google. Vediamo chi è

La carriera di Hinton e come mai ha lasciato Google

Il motivo per cui Hinton ha deciso di lasciare il suo lavoro a Google viene svelato in una lunga intervista al New York Times: "Me ne sono andato per parlare dei pericoli dell'intelligenza artificiale". Tuttavia, questo non significa che gli sia stato impedito di parlarne mentre era a Google, come ha ribadito su Twitter: 'Vogliono poterne parlare senza doversi preoccupare dell'impatto che le mie parole avranno su Google', anzi ha detto di aver "agito con grande responsabilità".

Secondo la versione ricostruita (ma con dettagli comprensibilmente scarsi), Hinton si è dimesso il mese scorso e ha parlato direttamente con Sundar Pichai, CEO del colosso di Mountain View, il 27 aprile. Hinton è nato nel Regno Unito, ha il passaporto canadese ed è entrato in Google nel 2013. 

Dopo l'acquisto da parte di Big G della società fondata da lui e da due suoi studenti (uno dei due lavora ora presso OpenAI, Ilya Sutekever), i tre stavano sviluppando una rete neurale ad autoapprendimento che impara ad analizzare migliaia di foto e a identificare oggetti comuni come cani, gatti e fiori.

Questo è il cosiddetto deep learning ed è la base del modello linguistico su larga scala chiamato LLM, che è alla base di ChatGPT e Bard.

Negli ultimi dieci anni, almeno fino alla fine del 2022, quando OpenAI ha lanciato ChatGPT e, soprattutto, quando Microsoft lo ha integrato nel suo motore di ricerca Bing, tutto andava più o meno bene. Questo ha innescato una sorta di guerra di territorio tra Google e altre aziende tecnologiche e, secondo Hinton, è emerso un mondo in cui le immagini e i testi generati dall'IA (cioè una sorta di fake) potevano superare numericamente quelli generati dall'uomo.

In breve, la ricerca del profitto può farci dimenticare le nostre preoccupazioni più elementari, rendere impossibile "distinguere il bene dal male" e lasciare indietro importanti questioni etiche e morali nella formazione e nello sviluppo dell'IA. E forse la nostra stessa sopravvivenza potrebbe essere a rischio.

L'intelligenza artificiale può rappresentare un pericolo?

Sì, perché "affogare nei deepfakes e nelle fake news" è solo una parte del problema. Hinton è solo la seconda figura autorevole del settore (in realtà la terza: Stephen Hawking è la prima) ad affermare che l'intelligenza artificiale potrebbe spazzare via la razza umana in un futuro non troppo lontano, e questa è solo una piccola parte del problema.

Solo un mese fa, in un lungo e stimolante articolo pubblicato sulla rivista Time, l'autore Eliezer Yudkowsky ha scritto senza mezzi termini che "il risultato più probabile dello sviluppo di un'intelligenza artificiale sovrumana sarebbe la morte di tutti gli abitanti del pianeta". Il risultato più probabile dello sviluppo di un'IA con intelligenza sovrumana è che letteralmente tutti gli abitanti del pianeta moriranno. In altre parole, "il risultato più probabile dello sviluppo di un'IA più intelligente degli esseri umani è che letteralmente tutti gli abitanti del pianeta moriranno. Questo non è inteso come una possibilità remota, ma come qualcosa che è certo che accadrà".

Hinton dice più o meno la stessa cosa. In passato, "alcune persone avevano l'idea che queste cose potessero essere più intelligenti di noi, ma la maggior parte degli accademici pensava che fosse improbabile. Anch'io la pensavo così, pensavo che fosse un'ipotesi lontana 30-50 anni, o anche di più. Ora non lo penso più."

Ciò che Hinton teme è che l'IA elimini gradualmente i posti di lavoro e, in ultima analisi, l'umanità, inizi a scrivere il proprio codice, si sviluppi autonomamente e venga persino usata per il male.

Sembra un'ipotesi fantascientifica, ma non lo è poi così tanto. È stata dimostrata dagli strani comportamenti già esibiti dall'IA (questi sono chiamati comportamenti emergenti che nessuno può spiegare) e confermata dal senso comune. Nelle parole di Hinton, "oggi è difficile immaginare come possiamo impedire ai cattivi di usarla per fare cose cattive".

Cosa si può fare per superare questa situazione? L'unica possibilità, secondo Hinton e molti suoi colleghi, sarebbe "non svilupparlo ulteriormente finché non sapremo se possiamo controllarlo". Per quanto mi riguarda, mi consolo con la solita scusa: "Se non lo faccio io, lo farà qualcun altro".