AI

Video pornografici non consensuali: uno dei problemi dello sviluppo dell’intelligenza artificiale

Se è vero che l’intelligenza artificiale si è rivelata essere uno strumento utile a migliorare le nostre vite, allo stesso tempo vanno riconosciuti i rischi ad essa collegata: vediamo insieme di che cosa si tratta
© Shutterstock
Facta.News
17.05.2023 14:45

Se è vero che l’intelligenza artificiale si è rivelata essere uno strumento utile a migliorare le nostre vite, allo stesso tempo vanno riconosciuti i rischi ad essa collegata: uno di questi è la creazione di contenuti pornografici senza consenso.

Questi specifici contenuti hanno iniziato a diffondersi su Internet diversi anni fa. In alcuni casi le immagini a sfondo sessuale raffigurano volti e corpi di persone create digitalmente, che non sono reali. In altri casi, invece, la gravità è maggiore perché vengono realizzati contenuti pornografici manipolando il corpo di persone reali. Chi ne resta più danneggiato sono principalmente le donne.

Tra deepfake e persone non reali

A maggio 2023 sono iniziate a circolare su Twitter alcune foto di una donna in giacca e camicia, con un’ampia scollatura, indicata come la ministra della salute giapponese. Le immagini sembrano reali, ma in realtà le cose non stanno così. L’utente che le ha create e condivise per la prima volta sui suoi profili social ha spiegato che sono state create con un programma di intelligenza artificiale dopo aver ricevuto la richiesta di creare immagini di politiche con il seno grande.

Casi più eclatanti riguardano i deepfake a sfondo sessuale di influencer, giornalisti e altri utenti sui social network con un profilo aperto, le cui immagini sono dunque facilmente scaricabili. In sostanza vengono manipolati i volti di queste persone per raffigurarli in falsi scenari, o scambiandoli con quelli di altre, ad esempio di pornoattrici. Questi filmati raggiungono un grado di verosimiglianza così elevato che persino alcune vittime dei deepfake hanno dichiarato di credere di essere state riprese di nascosto.

Problemi e possibili interventi

Secondo alcuni esperti, questa tendenza è cresciuta man mano che è diventato più facile realizzare deepfake sofisticati e visivamente accattivanti. E la situazione rischia di peggiorare nel prossimo futuro, considerando che gli strumenti di intelligenza artificiale si basano sulle immagini pubblicate in Internet, e dunque potrebbero diffondersi innumerevoli contenuti pornografici di questo tipo. 

Risolvere la questione non è così facile, visto che non esistono norme univoche per i contenuti pubblicati in Rete. Alcuni programmi di intelligenza artificiale hanno tentato di intervenire adottando regole interne. Ad esempio Midjourney, un’applicazione che genera immagini a partire da suggerimenti testuali, blocca l’uso di determinate parole chiave e incoraggia gli utenti a segnalare le immagini problematiche. Invece Stability AI, società che ha progettato il modello di deep learning Stable Diffusion per creare immagini a partire da un testo, ha creato un filtro che utilizza una combinazione di parole chiave e altre tecniche per rilevare la nudità, così da offuscare le immagini pornografiche create dagli utenti.

In questo articolo: