Il caso

Da Obama a Zelensky, quando la disinformazione incontra la tecnologia

Con CdT Check affrontiamo il problema dei deepfake e dei cheapfake, utilizzati per ingannare un numero sempre maggiore di utenti
© Shutterstock
Facta.News
24.05.2022 13:02

Diversi studi hanno dimostrato che la diffusione di notizie false trova nel mondo online un alleato, dal momento che quest’ultimo permette una veloce creazione e una semplice diffusione dei contenuti, oltre che una rapida viralità. 

Ma non solo: tecnologie e software offerti da Internet vengono sempre più spesso utilizzati da chi crea contenuti di disinformazione per renderli quanto più verosimili e ingannare un numero sempre maggiore di utenti. È, ad esempio, il caso di deepfake (e cheapfake), contenuti realizzati con l’aiuto dell’intelligenza artificiale.

Di che cosa stiamo parlando

Deepfake e cheapfake sono termini inglesi, che hanno fatto il loro ingresso nel mondo della disinformazione intorno al 2017. Si tratta di filmati (o di file audio) manipolati grazie all’uso delle nuove tecnologie per modificarne il significato originale, facendo così sembrare che una persona stia dicendo o facendo cose che in realtà non ha mai detto o fatto.

Il termine deepfake è un neologismo nato dall’unione di deep learning, una particolare tecnologia artificiale e fake (in inglese, falso). Con cheapfake si intendono contenuti simili, ma più semplici da riconoscere perché realizzati con programmi o tecnologie meno evolute (da cheap, «economico» in inglese) o di bassa qualità, e, quindi, meno verosimili e credibili.

Partendo da contenuti reali (immagini e/o audio), i deepfake modificano o ricreano, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo o riescono ad imitarne fedelmente la voce. Visto il realismo e l’attenzione ai dettagli, l’utente crede di vedere delle immagini reali e di ascoltare parole realmente pronunciate, ma non è così. 

Come ricordato dal Garante della privacy italiano, deepfake e cheapfake sono furti di identità. I soggetti che compaiono nei filmati a loro insaputa non solo perdono il controllo della propria immagine, ma anche delle proprie idee e pensieri che «possono essere travisati in base ai discorsi e ai comportamenti falsi che esprimono nei video». Gli esempi di occasioni in cui queste tecnologie sono state utilizzate sono molti: per la riproduzione delle voci dei principali esponenti politici mondiali mentre veicolano messaggi diversi rispetto a quelli originali, per la creazione di falsi video pornografici e anche per l’eliminazione di dettagli cruciali. Vediamo due esempi.

Barack Obama e Volodymyr Zelensky

Nel 2018 l’ex presidente degli Stati Uniti Barack Obama è stato protagonista di un deepfake, che però non era stato creato per diffondere disinformazione. Al contrario, l’intento era quello di sensibilizzare il pubblico sul tema. Si trattava di questo video.

Barack Obama non ha mai registrato questo filmato (come si scopre nella parte conclusiva). Il video è stato realizzato e interpretato dal regista americano Jordan Peele in collaborazione con BuzzFeed per dimostrare quanto sia semplice e immediato credere in ciò che si vede. 

Un deepfake dagli intenti decisamente differenti ha invece riguardato nel 2022 il presidente ucraino Volodymyr Zelensky. Come ricostruito da Giornalettismo, a metà marzo è stato diffuso sui social network un filmato in cui Zelensky sembrava invitare pubblicamente il proprio popolo alla resa accettando l’ingresso dei russi nel Paese. 

Nulla di vero. Il filmato era stato creato artificialmente, come è emerso osservando in modo scrupoloso i movimenti del collo e della testa del leader ucraino e come è stato poi confermato da Zelensky stesso.

Quanto è facile creare (e riconoscere) un cheapfake

Come spiegato sopra, rientrano nella categoria dei cheapfake quei contenuti di bassa qualità che, facendo disinformazione, modificano contenuti video o audio. I cheapfake sono spesso più semplici da riconoscere e sono creati con programmi per lavorare sui video di larga diffusione, come Photoshop o Sony Vegas Pro.

Per verificare un filmato e assicurarsi non si tratti di un cheapfake è importante analizzare ogni singolo frammento, con particolare attenzione ai gesti delle mani o alle espressioni del volto, così da riconoscere delle possibili imperfezioni. 

I cheapfake sono talmente facili da realizzare che nel 2019 il successo di un’applicazione cinese ha finito per preoccupare il Congresso degli Stati Uniti. Si trattava di Zao, applicazione che permetteva di sostituire il proprio volto a quello di alcune celebrità, creando con pochi e facili passaggi un filmato immediatamente condivisibile sui propri social network. La presenza di volti di esponenti politici sarebbe potuta diventare uno strumento per fare disinformazione in vista delle elezioni presidenziali.

Infine, al di là del pericolo per politici e cittadini, è importante ricordare che i cheapfake e la semplicità con cui possono essere creati rischiano di arrecare danni anche su piccola scala: possono essere pericolosi nel caso in cui diventino uno strumento per molestie o bullismo.

Vuoi inviarci una segnalazione? Scrivici all'indirizzo e-mail [email protected] o al numero WhatsApp 079 596 64 11, analizzeremo le notizie inviate dai lettori e contribuiremo insieme ad un’informazione di qualità.

In questo articolo: