Chi è Geoffrey Hinton, il padre dell’IA appena dimessosi da Google

Recentemente si è dimesso da Google, all'età di 75 anni. Vediamo chi è Geoffrey Hinton, considerato il padre dell'Intelligenza Artificiale

Jeffrey Hinton ha 75 anni e si sente come Robert Oppenheimer. “Stiamo contribuendo a costruire un’arma che potrebbe distruggere la razza umana. Non il nucleare, ma l’intelligenza artificiale.” È frutto di un’intervista del tutto singolare a seguito dele sue dimissioni da Google. Vediamo chi è

La carriera di Hinton e come mai ha lasciato Google

Il motivo per cui Hinton ha deciso di lasciare il suo lavoro a Google viene svelato in una lunga intervista al New York Times: “Me ne sono andato per parlare dei pericoli dell’intelligenza artificiale“. Tuttavia, questo non significa che gli sia stato impedito di parlarne mentre era a Google, come ha ribadito su Twitter: ‘Vogliono poterne parlare senza doversi preoccupare dell’impatto che le mie parole avranno su Google’, anzi ha detto di aver “agito con grande responsabilità”.

Secondo la versione ricostruita (ma con dettagli comprensibilmente scarsi), Hinton si è dimesso il mese scorso e ha parlato direttamente con Sundar Pichai, CEO del colosso di Mountain View, il 27 aprile. Hinton è nato nel Regno Unito, ha il passaporto canadese ed è entrato in Google nel 2013. 

Dopo l’acquisto da parte di Big G della società fondata da lui e da due suoi studenti (uno dei due lavora ora presso OpenAI, Ilya Sutekever), i tre stavano sviluppando una rete neurale ad autoapprendimento che impara ad analizzare migliaia di foto e a identificare oggetti comuni come cani, gatti e fiori.

Questo è il cosiddetto deep learning ed è la base del modello linguistico su larga scala chiamato LLM, che è alla base di ChatGPT e Bard.

Negli ultimi dieci anni, almeno fino alla fine del 2022, quando OpenAI ha lanciato ChatGPT e, soprattutto, quando Microsoft lo ha integrato nel suo motore di ricerca Bing, tutto andava più o meno bene. Questo ha innescato una sorta di guerra di territorio tra Google e altre aziende tecnologiche e, secondo Hinton, è emerso un mondo in cui le immagini e i testi generati dall’IA (cioè una sorta di fake) potevano superare numericamente quelli generati dall’uomo.

In breve, la ricerca del profitto può farci dimenticare le nostre preoccupazioni più elementari, rendere impossibile “distinguere il bene dal male” e lasciare indietro importanti questioni etiche e morali nella formazione e nello sviluppo dell’IA. E forse la nostra stessa sopravvivenza potrebbe essere a rischio.

L’intelligenza artificiale può rappresentare un pericolo?

Sì, perché “affogare nei deepfakes e nelle fake news” è solo una parte del problema. Hinton è solo la seconda figura autorevole del settore (in realtà la terza: Stephen Hawking è la prima) ad affermare che l’intelligenza artificiale potrebbe spazzare via la razza umana in un futuro non troppo lontano, e questa è solo una piccola parte del problema.

Solo un mese fa, in un lungo e stimolante articolo pubblicato sulla rivista Time, l’autore Eliezer Yudkowsky ha scritto senza mezzi termini che “il risultato più probabile dello sviluppo di un’intelligenza artificiale sovrumana sarebbe la morte di tutti gli abitanti del pianeta”. Il risultato più probabile dello sviluppo di un’IA con intelligenza sovrumana è che letteralmente tutti gli abitanti del pianeta moriranno. In altre parole, “il risultato più probabile dello sviluppo di un’IA più intelligente degli esseri umani è che letteralmente tutti gli abitanti del pianeta moriranno. Questo non è inteso come una possibilità remota, ma come qualcosa che è certo che accadrà”.

Hinton dice più o meno la stessa cosa. In passato, “alcune persone avevano l’idea che queste cose potessero essere più intelligenti di noi, ma la maggior parte degli accademici pensava che fosse improbabile. Anch’io la pensavo così, pensavo che fosse un’ipotesi lontana 30-50 anni, o anche di più. Ora non lo penso più.”

Ciò che Hinton teme è che l’IA elimini gradualmente i posti di lavoro e, in ultima analisi, l’umanità, inizi a scrivere il proprio codice, si sviluppi autonomamente e venga persino usata per il male.

Sembra un’ipotesi fantascientifica, ma non lo è poi così tanto. È stata dimostrata dagli strani comportamenti già esibiti dall’IA (questi sono chiamati comportamenti emergenti che nessuno può spiegare) e confermata dal senso comune. Nelle parole di Hinton, “oggi è difficile immaginare come possiamo impedire ai cattivi di usarla per fare cose cattive“.

Cosa si può fare per superare questa situazione? L’unica possibilità, secondo Hinton e molti suoi colleghi, sarebbe “non svilupparlo ulteriormente finché non sapremo se possiamo controllarlo”. Per quanto mi riguarda, mi consolo con la solita scusa: “Se non lo faccio io, lo farà qualcun altro”.

Vincenzo Stella
Vincenzo Stella
Vincenzo, 29 anni e sono un copywriter e web editor con una passione per la scrittura fin da giovane. Laureato in giurisprudenza ed avvocato, ho cambiato rotta nel corso degli studi, occupandomi dapprima di web-radio e poi di editoria. Sono appassionato di tech, economia e geopolitica. E adoro le chiacchiere da bar, specialmente se si parla di attualità. La mia passione imperitura per l'arte scritta mi spinge costantemente a migliorare e le mie abilità a tutte le esigenze. Sono sempre alla ricerca di nuove sfide e opportunità per ampliare il mio bagaglio culturale e professionale. Mi occupo di cultura nella vita, anche al di fuori del lavoro. Il teatro ed il volontariato sono il mio carburante nel tempo libero.
Seguici
161,688FansLike
5,188FollowersFollow
765FollowersFollow
10,800FollowersFollow

Mailing list

Registrati alla nostra newsletter

Leggi anche
News Correlate