Immagini e verità

Il caso Gemini

È la fine di febbraio 2024 quando Sergey Brin, cofondatore di Google, a una convention sull’intelligenza artificiale a San Francisco, dichiara: «We definitely messed up», abbiamo decisamente fatto un pasticcio
Margherita Schellino
20.06.2024 06:00

È la fine di febbraio 2024 quando Sergey Brin, cofondatore di Google, a una convention sull’intelligenza artificiale a San Francisco, dichiara: «We definitely messed up», abbiamo decisamente fatto un pasticcio. Tale dichiarazione giunge alcuni mesi dopo il lancio di Gemini, il modello di intelligenza artificiale sviluppato da Google capace di generare immagini a partire da prompt testuali. In poco tempo, infatti, l’app aveva cominciato a sollevare polemiche per la sua tendenza a creare immagini dalla chiara infondatezza storica: come mostrano numerosi post circolanti sui social, Gemini non esita a far comparire uomini afrocamericani alla richiesta di creare un’immagine dei Padri Fondatori degli Stati Uniti, vestendone alcuni con il copricapo tipico dei nativi. Alla richiesta di rappresentare soldati nazisti, poi, Gemini include donne di etnia asiatica in uniforme. Una donna di colore, con una toga chiara, alla richiesta di rappresentare un papa. E se un ex dipendente di Google non manca di ironizzare su X, dichiarando che «sembra impossibile far riconoscere a Gemini che esistono persone dalla pelle bianca», le polemiche e le accuse di revisionismo storico scatenano rapidamente una vera e propria bufera attorno a questo nuovo software. Cosa era successo? L’apparente ossessione di Gemini nel mostrare differenti generi ed etnie è il risultato di uno sforzo di invertire la problematica tendenza di altri software - si pensi, ad esempio, a Dall-E o Midjourney - a diffondere e ricalcare stereotipi di classe e di genere, riproponendo triti cliché e luoghi comuni (una «persona in carriera» è quasi sempre un uomo bianco in giacca e cravatta; una «persona che fa le pulizie» è quasi sempre donna sorridente, e così via). Gemini testimonia insomma un tentativo di compensazione sfociato in un eccesso di inclusività, e la fretta con cui è stato sviluppato è parte determinante di tale risultato; ed è proprio questo dettaglio, forse, a meritare qualche considerazione in più. Mi sembra infatti che l’indignazione creatasi attorno alle immagini «false» generate da Gemini sia poco produttiva, e non colga nel segno il problema. Al contrario, quanto accaduto può esser giudicato utile allo smascheramento dei limiti strutturali di questo e di analoghi software, ricordandoci che il criterio di verità poggia solamente nell’abilità critica di chi osserva. E non solo: il caso Gemini svela che la corsa all’intelligenza artificiale - e ai relativi ricavi miliardari - si trova ora davanti a uno snodo significativo. Tali strumenti stanno infatti transitando da un utilizzo per svago e creatività personale al diventare le basi su cui si alimenta l’economia e si orienta la politica: alcuni studi prevedono che, nell’arco di pochi anni, il 90% dei contenuti online - dagli annunci pubblicitari ai video elettorali - saranno artificialmente generati. Poco importa, allora, ciò che ci appare palesemente falso: la sfida sarà capire cosa, tra quel che ci appare palesemente vero, lo è per davvero.