I fact-checking dei chatbot di intelligenza artificiale non funzionano

Nelle ultime settimane i chatbot di intelligenza artificiale (come ChatGPT o Grok) sono stati usati sempre più spesso per verificare contenuti e notizie online. Nonostante la soluzione sembri molto veloce e funzionale, c’è un problema non indifferente: i chatbot non sono in grado di svolgere questo lavoro e spesso finiscono a loro volta a diffondere disinformazione.
Questo fenomeno si è verificato ad esempio durante il conflitto di quattro giorni tra India e Pakistan a inizio maggio, e si è ripetuto negli Stati Uniti a inizio giugno, nel corso delle proteste di Los Angeles contro le modalità della repressione dell’immigrazione irregolare portata avanti dall’amministrazione di Donald Trump. Si è poi intensificato quando i chatbot sono stati utilizzati da vari utenti per verificare i contenuti che circolavano sul conflitto scoppiato in Medio Oriente dopo che il 13 giugno 2025 Israele aveva attaccato l’Iran.
Le truppe statunitensi che dormono per terra
Nel caso delle proteste di Los Angeles, lunedì 9 giugno 2025 il quotidiano San Francisco Chronicle aveva pubblicato delle foto che mostravano truppe della Guardia Nazionale inviate da Trump a Los Angeles costrette a dormire per terra all’interno di un edificio.
La legittimità delle foto era stata messa tuttavia in discussione online da Melissa O’Connor, che si presenta su X come esperta di Osint, ovvero di “Open Source Intelligence”, una disciplina si occupa di geolocalizzare video e filmati di guerra tramite immagini satellitari e mappe online. Basandosi su un'analisi di ChatGPT, O’Connor aveva sostenuto che una delle immagini fosse stata scattata in realtà nel 2021 all’aeroporto di Kabul e non a Los Angeles. Anche Grok, il chatbot di X, aveva fornito informazioni simili, sostenendo che le foto fossero del 2021 e riferite al Campidoglio degli Stati Uniti, mentre in altre aveva riconosciuto la loro autenticità.
In realtà, entrambe le immagini pubblicate dal Chronicle erano autentiche e scattate a giugno 2025 al Robert Young Federal Building di Los Angeles, come confermato da un'analisi dell’emittente CBS e da un portavoce del Comando Settentrionale degli Stati Uniti. Quindi, sia l’analisi di ChatGPT sia quella di Grok erano errate.
I mattoni e la protesta della sinistra
Sempre nell’ambito delle proteste di Los Angeles, Mike Crispi, presidente della sezione del New Jersey del gruppo filo-Trump “America First Republicans”, aveva pubblicato su X una foto che mostrava pile di mattoni disposte ordinatamente lungo una strada, insinuando che fossero la prova di una protesta di sinistra «organizzata e pianificata».
Il contenuto si inserisce in una narrativa complottista secondo cui le proteste sarebbero state orchestrate da figure potenti come George Soros. Come raccontato su Wired dal giornalista esperto di disinformazione David Gilbert, il chatbot Grok aveva contribuito a diffondere questa tesi, affermando che la foto dei mattoni fosse stata scattata a Paramount, vicino a Los Angeles, durante le manifestazioni contro l’ICE.
Tuttavia, la foto non ha alcun legame con le proteste di Los Angeles: il sito di fact-checking LeadStories ha verificato infatti che era stata scattata in un sobborgo del New Jersey.
I missili dell’Iran
Un caso particolarmente emblematico di disinformazione diffusa dai chatbot nel caso del conflitto in corso tra Israele e Iran riguarda invece un video che mostra una lunga fila di camion trasportare missili iraniani fuori da una grotta. In questo caso, quando è stato chiesto a Grok se il video fosse reale, il chatbot ha affermato senza esitazioni di sì. Non solo, ma ha anche dichiarato che il filmato era stato diffuso da testate affidabili come Newsweek e Reuters.
In realtà, niente di tutto ciò era vero. Il filmato è stato generato chiaramente con l’intelligenza artificiale, come si nota da evidenti imperfezioni visive. Ad esempio, mentre i camion avanzano, nell’angolo in basso a destra del filmato si può notare un movimento innaturale dei sassi e delle rocce che costeggiano la strada. Inoltre, né Newsweek né Reuters hanno mai pubblicato un video del genere.