Il mercato delle donne create con l'IA: non esistono, ma c'è chi paga per vederle nude

Mentre le influencer perdono ore per lo scatto perfetto, spesso ricorrendo a filtri o ritocchini, i programmi basati sull’intelligenza artificiale (IA), oggi, creano immagini di donne avvenenti, meglio se mezze nude, in pochi secondi. E spesso, complice la nostra ricerca di uno standard di bellezza terribilmente artefatto, è davvero difficile distinguere il vero dal falso. App come BikiniOff (ne abbiamo già parlato, spiegando come funziona questa tecnologia e quali sono i rischi) permettono di spogliare una persona semplicemente caricando una foto. È il deepfake a portata di mano di tutti. Non servono conoscenze informatiche, neanche quelle più elementari: fa tutto l’intelligenza artificiale. Con i software basati sull’IA è ovviamente possibile creare materiale pornografico ben più spinto di una foto di nudo: secondo Sensity, una società con sede ad Amsterdam che si occupa del monitoraggio di contenuti generati tramite l’IA, il 96% dei deepfake diffusi sul web è sessualmente esplicito e utilizza l’immagine di donne che non hanno acconsentito alla creazione di tali contenuti. Avete capito bene: in quasi tutti i deepfake a sfondo sessuale, di fatto, c’è un abuso su una donna. Ma la faccenda non è solo nera, ci sono molte sfumature di grigio: con le nuove tecnologie è infatti possibile creare persone artificiali, inesistenti, che non danneggiano l’immagine di nessuno. C’è chi è disposto a pagare per foto di ragazze non reali, apparentemente prive di difetti. In alcuni casi, è possibile contattare i cosiddetti «artisti» dell’intelligenza artificiale per commissionare loro la donna dei propri sogni: «La voglio bionda, occhi azzurri, con un seno enorme e i fianchi a clessidra». Che problema c’è? Basta pagare. I rischi però sono sempre dietro l'angolo, dalle possibili truffe (avete notato quante belle donne vi contattano puntualmente sui social? Pensate siano reali?), ai problemi di privacy, sino agli abusi a sfondo sessuale.
Sei vera o fantasia?
«Sei incredibile». «Dovresti fare il cosplay di Tifa (un personaggio decisamente sexy del videogioco Final Fantasy 7, ndr)». «Sei talmente bella da non sembrare vera». E infatti, quella ragazza sommersa da apprezzamenti su Reddit, vera non è. A distruggere l’entusiasmo degli utenti, il commento di un occhio più esperto: «Se non ve ne siete accorti, ucciderò le vostre fantasie. Questa è stata creata da un’IA, se lavori con modelli di immagini IA e li hai creati abbastanza a lungo, lo puoi affermare al 10000%. Mi dispiace rovinarvi la sorpresa». Già, la donna in questione, diffusa dall'utente «Cl4ud14», è stata generata con un software ed è stata condivisa sui social per promuovere, e vendere, immagini di nudo. Due studenti di informatica hanno raccontato a Rolling Stone di aver aperto l'account Reddit per scherzo e di aver guadagnato circa 100 dollari con le foto della ragazza nuda: «La creazione dell’account è stata un test per vedere se si possono ingannare le persone utilizzando immagini generate con l’intelligenza artificiale. Onestamente, non pensavamo che avrebbe attirato così tanti utenti». La ragazza è stata realizzata con Stable Diffusion, un programma di intelligenza artificiale che utilizza l'apprendimento automatico (come ChatGPT) per generare foto incredibilmente realistiche partendo da un testo descrittivo. In questo caso è bastato richiedere una donna «senza trucco, con i capelli neri lisci, lunghi fino alle spalle, la frangia e uno sfondo semplice». La foto di base è poi stata migliorata nei particolari.

Gli artisti dell’IA e la questione OnlyFans
Se su Reddit l’esperimento ha avuto un inatteso successo, ci sono esempi ben più apprezzati, che, secondo gli esperti, potrebbero addirittura minacciare il lavoro delle content creator che utilizzano OnlyFans. Secondo Wired, circa l’80% degli utenti che acquista contenuti osé sulla piattaforma si lascia ingannare dalle immagini prodotte dall'IA. E, non a caso, sta nascendo un nuovo business in cui, grazie all'intelligenza artificiale, l’utente può richiedere foto della persona dei propri sogni, (s)vestita come desidera. Tra gli artisti di immagini a sfondo sessuali generate con la IA, uno dei più noti è TheRRRealist, attivo sui social e presente sulla piattaforma Deviant Art, sulla quale vende le sue opere. TheRRRealist ha ricevuto particolare visibilità negli scorsi mesi, quando alcune sue creazioni sono diventate virali su Twitter, con diversi utenti che hanno ammesso di essere disposti a pagare per immagini di belle donne create con l’IA. Il dibattito si è subito infuocato sul social dei cinguettii, e in tanti hanno cercato di smontare quelle immagini così realistiche, analizzandole nei minimi dettagli e mostrando come ci siano parecchie imprecisioni: le mani, ad esempio, sono una delle parti del corpo più difficile da realizzare.


Nonostante le imperfezioni, si fanno affari d'oro sul web. Su OnlyFans sono già diversi i profili che utilizzano unicamente immagini create con l’IA. E lo stesso vale per Instagram, dove, tra le decine di account, spicca quello di Eve A. Helling, con oltre 183 mila follower. Eve propone abbonamenti sino a circa 30 dollari al mese, in cui vende pacchetti di foto a sfondo sessuale. Ma l’intelligenza artificiale, per le «modelle» reali che lavorano sui social, non rappresenta solo una minaccia, bensì un'opportunità. Secondo la content creator australiana Avalon, intervistata da Pirate Wires, «per le persone reali, creare contenuti con l'intelligenza artificiale potrebbe rappresentare un incredibile punto di svolta, in quanto potrebbero lavorare nascondendo imperfezioni, gravidanze o persino ingannare la vecchiaia. Oppure potrebbero assumere dipendenti per creare e caricare nuovi contenuti per conto loro, se hanno bisogno di prendersi una pausa». Insomma, uno strumento in più per evitare lunghe sessioni fotografiche o l'utilizzo di complessi strumenti di editing.

«Sempre più persone comuni nei deepfake»
Se da una parte si aprono opportunità per gli addetti ai lavori, dall’altra si ingigantiscono problematiche legate ai dati sensibili e alla pedopornografia (con BikiniOff è possibile caricare foto di minorenni e spogliarle in pochi secondi). MrDeepFakes, uno dei siti più importanti nel mondo del porno deepfake, ospita migliaia di video sessualmente espliciti e, secondo la società di analisi SimilarWeb, totalizza 17 milioni di visitatori al mese. Chiaramente le persone abusate sono soprattutto celebrità, ma il rischio è che il fenomeno si estenda sempre più alle persone comuni, semplicemente utilizzando le foto trovate sui profili social. L’avvocata australiana Noelle Martin, attivista contro gli abusi sessuali facilitati dalla tecnologia, ha dichiarato a CBS News di aver scoperto di esser stata presa di mira in prima persona, semplicemente facendo una ricerca del suo nome su Google. Secondo la donna, sempre più vittime di abusi sessuali deepfake saranno persone comuni. Il problema è cresciuto esponenzialmente da quando le tecnologie sono diventate semplici da utilizzare e, di pari passo, i contenuti sempre più realistici e accattivanti. Non bisogna poi dimenticare che nello sviluppo dell’intelligenza artificiale generativa, i sistemi vengono addestrati su miliardi di immagini prese da Internet: il materiale creato usa dati esistenti, di persone in carne e ossa. Secondo Adam Dodge, fondatore di EndTAB, un gruppo che offre corsi di formazione contro gli abusi legati alla tecnologia, sarà sempre più facile creare deepfake: «Le persone, senza dubbio, continueranno a fare un uso improprio di queste tecnologie per danneggiare gli altri, principalmente attraverso gli abusi sessuali online, la pornografia deepfake e le false immagini di nudo». Uno scenario quasi distopico, fatto di persone inesistenti, perfette e innaturali. Forse, allora, inizieremo ad amare i nostri difetti fisici, perché, proprio questi, ci rendono umani. Reali.