Ampiamente usati nell’ambito della satira, i deepfake potrebbero diventare, nel prossimo futuro, una devastante arma per la criminalità informatica e il cyberterrorismo.
Se ne è occupata Sabrina Marchetti nell’Occasional Paper “Rolling in the deep(fakes)” pubblicato da Banca d’Italia.
Perché i deepfake sono un pericolo
I deepfake sfruttano la capacità dell’intelligenza artificiale di sintetizzare l’immagine (e la voce, non dimentichiamolo) umana per creare dei contenuti estremamente realistici.
Se ci aggiungiamo la tendenza delle persone a credere a ciò che vedono, soprattutto se non hanno idea del livello raggiunto dalla tecnologia, è facile comprendere che un deepfake ben realizzato sia potenzialmente molto pericoloso.
Target mirati o massivi
Marchetti riporta una distinzione tra due forme di disinformazione: mirata a un singolo obiettivo oppure diffusa.
Se nel mirino c'è un solo obiettivo
Un contenuto deepfake potrebbe essere utilizzato per attaccare un obiettivo specifico. Un politico, un manager aziendale o un consumatore. Con una forma raffinata di social engineering che permette di confezionare un messaggio personalizzato.
Pensiamo a un dirigente in trasferta che autorizza, via voce o video, il pagamento urgente di una fattura di importo ingente. O al video di un parente che dice di avere bisogno di denaro per un’emergenza.
Una forma particolarmente triste di truffa è la cosiddetta “ghost fraud”, la frode del fantasma, in cui queste tecniche sofisticate vengono utilizzate per impersonare un deceduto e accedere alla sua pensione, al suo rating creditizio o ad altri benefici.
Deepfake virali per obiettivi politici (e non solo)
Se questo ambito “micro” sembra terreno fertile per la criminalità informatica che già oggi ci bombarda di tentativi di phishing, la dimensione “macro” degli attacchi porta a pensare al terrorismo e alla guerra virtuale.
La diffusione su larga scala di un finto video (o di un finto audio, ripeto: sono ampiamente utilizzati nelle inchieste giornalistiche) riguardante le dichiarazioni di un politico, di un esponente istituzionale, di uno scienziato, del capo di una grande azienda, potrebbe avere ripercussioni importanti sull’opinione pubblica.
Alimentare la sfiducia nelle istituzioni e nella scienza (non importa quante smentite arriveranno: qualcuno vorrà comunque credere al falso video), ma anche portare scompiglio nei mercati, ad esempio causando il crollo improvviso di un titolo per eccesso di vendite a seguito di una notizia in realtà falsa. Ma supportata da un video che sembra reale.
Pensiamo a come Reddit e altri social media abbiano dimostrato la capacità dell’azione collettiva di avere un effetto sull’andamento dei mercati azionari: GameStop e gli altri meme-stock sono una lezione che va ricordata.
Danneggiare un’azione diplomatica, mettere in pericolo la sicurezza pubblica, scatenare il panico nei consumatori: l’elenco dei possibili usi a danno di una nazione è molto lungo.
Ma quale soluzione è praticabile?
Difficile trovare anche una soluzione. Realizzare un deepfake non è un reato di per sé: lo è se il suo obiettivo è commettere un’azione criminale o danneggiare qualcuno. Anche appellarsi al GDPR per la tutela dei propri dati biometrici è un’opzione percorribile, anche se relativamente efficace.
Marchetti, nel suo lavoro, rimanda al dibattito, portato avanti da studiosi internazionali di livello eccellente, sulla creazione di società intermedie a cui affidare il monitoraggio dei contenuti condivisi sui social e sulle principali piattaforme.
L’introduzione di qualunque filtro alla libertà di espressione, di qualunque criterio di verità nella valutazione dei contenuti, appare come un obiettivo non solo di difficile applicazione, ma anche generatore di ulteriori polemiche e divisioni.
Non c’è dubbio però che le piattaforme di contenuti andranno coinvolte, in futuro, non solo nella moderazione ma anche nell’educazione degli utenti - cittadini all’uso dei loro servizi e alla comprensione di ciò che si trovano davanti.
La migliore arma, anche contro i deepfake, è la conoscenza.