Intel lancia FakeCatcher: riconosce i DeepFake analizzando il flusso sanguigno

Per contrastare la pericolosa tendenza dei deepfake utilizzati nelle campagne di disinformazione, Intel ha sviluppato FakeCatcher, una tecnologia in grado di rilevare i video falsi con un tasso di precisione del 96%. Come? Attraverso il sangue.

fake-catcher-riconoscere-i-deep-fake

Con il rapido sviluppo dei software per la creazione di contenuti digitali, è sempre più difficile distinguere tra ciò che è reale e ciò che non lo è.

Grazie a tecnologie avanzate come il machine learning, l'intelligenza artificiale e i software di manipolazione dei contenuti visuali, chiunque può creare contenuti falsi ma incredibilmente realistici, ovvero i famigerati deepfake.

Questo rappresenta un problema serio, in quanto i video falsi possono essere utilizzati per diffondere disinformazione e provocare un caos “controllato” da coloro che desiderano farlo. Ecco perché Intel ha sviluppato FakeCatcher, una tecnologia in grado di rilevare i video falsi con un tasso di precisione del 96%. Vediamo come funziona.

Come funziona FakeCatcher, la tecnologia sviluppata da Intel per il rilevamento immediato dei deepfake

FakeCatcher è un nuovo strumento basato sull'intelligenza artificiale in grado di rilevare i video deepfake con una precisione sorprendente.

La maggior parte dei rilevatori basati sul deep learning esaminano i dati grezzi per analizzare i contenuti visivi e identificare i segnali di inautenticità nei video. Una tecnologia sensata, ma lenta e spesso inefficace che però fino ad oggi non ha avuto alternative convincenti.

FakeCatcher, invece, cerca indizi autentici sfruttando una base di conoscenze su video reali, valutando ciò che ci rende umani – dall’individuazione del flusso sanguigno nei pixel di un video alla fedeltà dei movimenti della comunicazione non verbale.

“Quando il nostro cuore pompa il sangue, le nostre vene cambiano colore. Questi segnali di flusso sanguigno vengono raccolti da tutto il viso e gli algoritmi li traducono in mappe spazio-temporali. Nella maggior parte dei casi, è impossibile che il software si sbagli, in questo senso” ha dichiarato Ilke Demir, senior staff research scientist nei laboratori Intel.

Quindi, utilizzando il machine learning, FakeCatcher potrà verificare istantaneamente se un video è reale o falso impiegando fattori attraverso i quali è praticamente impossibile sbagliare.

L'importanza del rilevamento dei deepfake in tempo reale

Negli ultimi anni, i progressi della tecnologia AI hanno dato origine a una pericolosa tendenza che ha come protagonisti i contenuti deepfake.

Un esempio – seppur sottosviluppato e facilmente riconoscibile – è il software FakeYou che sfrutta il machine learning per creare deepfake vocali, utilizzati principalmente per creare parodie su personaggi pubblici e celebrità.

Tuttavia, le implicazioni dei deepfake maggiormente sofisticati sono esponenzialmente più pericolose.

Questi video vengono realizzati utilizzando l'intelligenza artificiale per sovrapporre il volto di una persona al corpo di un'altra, facendo sembrare che la persona nel video stia dicendo o facendo cose che in realtà non ha mai detto o fatto.

Se da un lato i video deepfake possono essere usati per un divertimento innocuo (come mettere il volto della propria celebrità preferita sul proprio corpo), dall'altro possono essere usati per scopi più maligni, come creare notizie false o infangare la reputazione di qualcuno.

Alcuni deepfake sono difficili da riconoscere, perché sembrano estremamente realistici. Fino ad oggi, le app di rilevamento richiedevano il caricamento di un video per l'analisi, e sfruttavano tecnologie estremamente lente e, in alcuni casi, inefficaci.

FakeCatcher, ecco quando impiegarlo per riconoscere i Deepfake

FakeCatcher potrebbe invece risultare un vero e proprio game changer, perché utilizza l'apprendimento automatico per analizzare i video in tempo reale utilizzando fattori al 96% veritieri, in modo da poter capire immediatamente se un video è stato alterato.

Ci sono diversi casi d'uso potenziali per FakeCatcher. Le piattaforme di social media potrebbero sfruttare la tecnologia per impedire agli utenti di caricare video deepfake dannosi per la reputazione altrui, ma anche fermare vere e proprie campagne di disinformazione studiate a tavolino.

Le testate giornalistiche potrebbero infatti utilizzare il FakeCatcher per evitare di dare rilevanza inavvertitamente video manipolati, evitando di cadere nella trappola dei deepfake creati a scopo di diffondere notizie false.