Social

Adolf Hitler in skateboard ma non solo: Sora 2 e quei video virali

Piattaforme come Instagram, TikTok e X da una settimana sono inondate di filmati generati dall'applicazione di OpenAI – La domanda delle domande: a chi tocca moderare? E come?
© Shutterstock
Marcello Pelizzari
10.10.2025 15:30

A chi tocca moderare, diciamo pure contenere, i video generati dall'intelligenza artificiale? La domanda è più che mai d'attualità. Piattaforme come Instagram, da una settimana a questa parte, sono invase da filmati particolari (eufemismo). Michael Jackson che ruba pepite di pollo al fast food e, poco dopo, si mette a ballare; Stephen Hawking alle prese con varie discipline sportive, fra cui il salto con l'asta; Adolf Hitler in skateboard; Albert Einstein che sale sul ring per un incontro di wrestling o, peggio, di UFC. E tanto, tantissimo altro. Merito, o meglio colpa, di Sora 2, l'applicazione di OpenAi che consente di generare e pubblicare video, appunto, partoriti dall'intelligenza artificiale. 

L'applicazione, al momento, è disponibile unicamente negli Stati Uniti e soltanto su invito. I risultati, però, hanno invaso il mondo tramite X, TikTok e Instagram. Il problema, detto degli esempi appena citati, è che Sora 2 è migliorata, e pure parecchio. Detto in altri termini: a un occhio distratto o disattento un video generato dall'AI può sembrare vero. Di più, OpenAI ha aggiunto un'opzione che consente di utilizzare il proprio volto o quello di un'altra persona, «previo consenso» ha precisato la stessa start-up, per rendere questi video ancora più realistici. Sam Altman, il fondatore di OpenAI, ha offerto agli utilizzatori la possibilità di generare contenuti sfruttando la sua immagine. 

Le derive, evidentemente, sono molteplici. A maggior ragione se tutta questa creatività viene messa al servizio di Paesi che puntano a destabilizzare le democrazie occidentali. Come la Russia. Di nuovo: chi modera? E, soprattutto, come? La prima sfida, va da sé, è riconoscere questo tipo di contenuto. Quelli di ultima generazione, infatti, come detto sono tremendamente realistici. Al punto che, come spiegano gli esperti, distinguere il vero dal falso, o meglio il vero dal «generato con AI», sta diventando sempre più complicato. Per dire: gli stratagemmi utilizzati sin qui per capire se un video è generato con l'intelligenza artificiale, come il numero delle dita di una mano, non sono più validi. Proprio in virtù dei miglioramenti fatti. 

OpenAI, consapevole del problema, sta applicando su ogni video generato con Sora2 un cosiddetto watermark per identificare che siamo di fronte a un prodotto dell'intelligenza artificiale. Ma, per dirla con 404 Media, ripreso dal quotidiano economico francese La Tribune, online esistono già degli strumenti per rimuovere questo watermark. E non servono certo nozioni di editing eccezionali per rimuoverlo tramite un programma di montaggio. A detta degli esperti, anche la firma digitale C2PA, uno standard adottato da Meta e Google che associa determinati metadati ai video fatti con l'AI, non è infallibile. Resta, a monte, l'educazione degli utenti, l'unica, vera arma per contenere e contrastare quanto sta accadendo online. Una parte, teoricamente, dovrebbero farla pure le piattaforme. Ma TikTok, fra gli altri, pur chiedendo ai creatori di etichettare i loro contenuti generati con l'AI e pur applicando automaticamente un'etichetta in caso di presenza di una firma digitale C2PA, beh, tende a non moderare in maniera netta e specifica. Non finisce qui: a oggi, non è facile rispondere alla domanda delle domande, ovvero se questi contenuti siano legali o meno. E questo perché, per quanto chiara sia la legge, alcuni casi sono decisamente meno limpidi o, se preferite, interpretabili. 

OpenAi, fra le altre cose, inizialmente ha concesso la rappresentazione di persone decedute di recente, suscitando le ire della figlia di Robin Williams, o di personaggi protetti da copyright. Nel frattempo, la start-up ha aggiunto alcuni paletti. Tuttavia, l'impressione è che Sora 2 potrebbe sfuggire rapidamente di mano. Con il beneplacito, verrebbe da dire, della stessa OpenAI, che da lunedì concede a qualsiasi società di integrare il suo modello nel proprio servizio tramite un'API. Così Sam Altman: «Presto non saremo gli unici a offrire un modello di video di qualità, e ci saranno molti video senza nessuna delle nostre misure di sicurezza, ma va bene così, è così che funziona il mondo. Possiamo sfruttare questa opportunità per far sapere alla società che le regole del gioco sono cambiate, che ora possiamo produrre video quasi indistinguibili dagli originali e che dobbiamo essere preparati a questo».