Non chiedete all’IA, non sa niente degli orrori di Gaza (e questo bimbo non viene dallo Yemen)

Nella Striscia di Gaza la gente soffre la fame. Lì, sotto le bombe israeliane, un pezzo di pane può fare la differenza tra la vita e la morte. Le immagini che arrivano dall’enclave mediorientale lasciano senza parole: bambini ridotti a scheletri, gente uccisa mentre cerca un po’ di cibo, intere città sventrate dalla furia dei missili. Da mesi, si assiste a susseguirsi di notizie raccapriccianti diffuse dalle più importanti testate giornalistiche del mondo. Eppure, c’è chi non si fida dei media cosiddetti mainstream e guarda altrove. Un caso emblematico è rappresentato dalla foto che raffigura Yazan Abu Foul, bimbo palestinese di 2 anni, stretto in un abbraccio della madre Naima. Il piccolo è ormai ridotto a uno scheletro, per via del blocco israeliano agli aiuti umanitari nell’enclave mediorientale. La foto in questione è stata scattata lo scorso 19 luglio al campo profughi di Al-Shati, a ovest di Gaza City, da Haitham Imad, fotografo della European Pressphoto Agency, già vincitore di diversi premi.
Gli errori di ChatGPT su Gaza
Un'immagine che non ha avuto l'eco mediatica sperata e, anzi, è stata pure messa in discussione da diversi utenti sui social media, convinti che nella Striscia di Gaza non vi sia alcuna carestia. La fonte utilizzata per smontare la veridicità dello scatto? Chatbot come ChatGPT o Grok (l’IA integrata di X), i quali hanno suggerito come quel piccolo ridotto a pelle e ossa potesse venire dallo Yemen, dal Sudan o dalla Somalia. Ci sono due grossi problemi di fondo, però: il primo, è che l’IA, per comporre la sua risposta, utilizza parti di testo la cui provenienza non è sempre chiara. Il secondo, è che i chatbot sono estremamente accondiscendenti con il fruitore. Insomma, se voglio ottenere una determinata risposta, prima o poi - attraverso domande più o meno faziose – riuscirò a ottenerla. Detto altrimenti, su determinati temi, specialmente quelli più divisivi, l’IA non è per nulla affidabile e precisa.

Walter Quattrociocchi, professore ordinario di Informatica alla Sapienza Università di Roma, non ha dubbi al riguardo. Interpellato dal CdT, l’esperto di data science, che da 10 anni si occupa di disinformazione, sottolinea: «I chatbot sono assemblatori di parole basati su un algoritmo. Dal contesto, che sarebbe la sequenza di parole immesse dall’utente, il prompt, l’IA cerca di generare il testo più plausibile. Non c'è nessuna comprensione della fonte o dell'informazione riportata. Sostanzialmente, un tool come ChatGPT è un semplice generatore di frasi senza nessuna verifica del senso».
Dalla disinformazione alla polarizzazione
È chiaro, dunque, che uno strumento del genere, in un’epoca come la nostra inondata da informazioni a portata di tutti grazie ai social media e più che mai polarizzata su temi delicatissimi – dalla pandemia, alla guerra in Ucraina, sino alla Striscia di Gaza – rappresenta una bomba a orologeria pronta a esplodere. Ammesso che non lo abbia già fatto. Secondo il prof. Quattrociocchi, «il grande problema sta nella vastità di accesso all'informazione. Prima si parlava di fake news, pensando che fosse una mera questione ontologica. Ovvero, una deviazione dalla verità che si pensava correggibile attraverso strumenti di vigilanza epistemica (si pensi, ad esempio, al fact-checking). Poi, però, siamo arrivati a capire che la disinformazione non è un effetto del contenuto, ma piuttosto della accoppiata comportamento umano-piattaforme algoritmiche».

Tradotto: l’essere umano cerca informazioni che confermino la sua posizione rispetto a un determinato tema e l’intelligenza artificiale, in questo senso, diventa un alleato fondamentale, perché, aggiunge l’esperto, l’obiettivo è «trattenere il più possibile l'utente sulla piattaforma, quindi vengono create le condizioni perfette affinché ci sia polarizzazione, più che disinformazione. Ognuno trova conferme al suo credo. Il punto di partenza in questa dialettica è l'innesto dei Large Language Models (LLM), ossia modelli che creano un ulteriore livello di distorsione. I LLM sono macchine statistico-computazionali addestrate a generare sequenze linguistiche coerenti sulla base di enormi quantità di testo. Insomma, non hanno comprensione, intenzionalità o referenza. Dunque, oltre a un’infodemia, cioè la sovrabbondanza di informazioni, viene creata pure l'illusione della conoscenza. Le persone tendono a fare affidamento su questi testi assemblati, pensando che i chatbot siano motori di ricerca. Ma l’intelligenza artificiale sbaglia, e pure molto. Neanche le addizioni riesce a fare in modo accurato».
Insomma, per il professor Quattrociocchi, si confonde il ragionamento con un affastellamento di questioni verosimili, in cui «c’è la forma, ma spesso manca il contenuto». E puntualizza: «Non intendo demonizzare i LLM, sono strumenti potentissimi e meravigliosi, ma vanno presi per quello che sono, cioè assemblatori di testo. Sono macchine statistiche che operano sul linguaggio attraverso input che gli abbiamo dato noi».
L'illusione del sapere
Il nostro interlocutore evidenzia come vi sia l'illusione, da parte degli utenti, «di poter colmare le proprie lacune attraverso le domande che pongono alla macchina». Ma non si tratta solamente di linguaggio. Pensiamo alle immagini dei bambini malnutriti nella Striscia di Gaza rispetto alle quali l’IA ha creato disinformazione. «ChatGPT può fare dei tentativi di classificazione, ma non è detto che siano accurati», commenta Quattrociocchi. E prosegue: «Questo è il punto: c'è sempre un margine di errore, pure abbastanza grosso. Nel caso dei bimbi malnutriti, la macchina cerca di riconoscere dei pattern di dati che sono già stati associati a determinate zone geografiche, poi cerca di catalogare l'immagine. Faccio un esempio concreto: mi è capitato di revisionare un articolo in cui gli autori avevano chiesto al chatbot di localizzare un’immagine di Prato, in Toscana. Per l’IA la foto in questione rappresentava la Cina (a Prato è presente una vasta comunità cinese, ndr)». Questo tipo di errore avviene perché le correlazioni effettuate da l’IA «sono lineari, ingenue e mancano di complessità».
Secondo il professore della Sapienza, «quella che stiamo vivendo non è la rivoluzione dell'intelligenza artificiale, ma è l'ennesimo capitolo della rivoluzione dei dati cominciata nel 2000, la quale ha cambiato il mercato dell'informazione, della pubblicità, del cinema e della musica attraverso i social media».

L'IA è accondiscendente
Tornando alla Striscia di Gaza, l’IA, dunque, cosa sa dei civili stremati dalla fame? Quattrociocchi constata: «Non sa nulla. O meglio, sa quello che le abbiamo detto noi. Prende dei pattern statistici leggendo notizie o opinioni su un determinato argomento. Poi cerca di riassemblarli nella maniera più plausibile in base al contesto che noi gli mettiamo a disposizione. L’IA tende a essere accomodante, perché, ovviamente, gli investitori vogliono che l’utente utilizzi il più possibile la loro piattaforma».
Niente di nuovo sotto il sole, del resto pure i social media, seguendo lo stesso paradigma, danno visibilità ai temi più polarizzanti e divisivi, perché creano interazioni e attirano gli utenti. I chatbot, in modo diverso, fanno la stessa cosa. Di fatto, «l’IA, in base alla richiesta, costruisce una forma di testo che sia completamente appealing per il fruitore». Per l’esperto, oggi «oltre alla sovrabbondanza di informazioni, c'è l’illusione della conoscenza data dall’intelligenza artificiale». Un miraggio, appunto, perché in realtà si tratta di «un assemblamento del linguaggio, preso da più parti e impreciso, ma presentato molto bene dal punto di vista formale». Insomma, calcando un po' la mano con le domande, potremmo farci dire tutto quello che vogliamo dai chatbot. Persino che la guerra è bella. E che nella Striscia di Gaza si vive come in un resort di lusso.