L'intervista

Epistemia: quando l'AI mette in crisi la verità

Quasi mai le persone comuni possiedono effettivamente la conoscenza di cosa davvero è: ne parliamo con il prof. Walter Quattrociocchi, principale autore dello studio «The simulation of judgment in LLMs»
© Shutterstock
Michele Castiglioni
24.12.2025 06:00

L’A.I. è ormai entrata da tempo e in modo prepotente nel dibattito pubblico, in particolare con l’utilizzo dei cosiddetti Large Language Models (LLM) - come ChatGPT – e uscendo dai ristretti circoli degli esperti e degli addetti ai lavori. Eppure, quasi mai le persone comuni possiedono effettivamente la conoscenza di cosa davvero è e dei suoi effettivi punti di forza e di debolezza. In questo senso il recente studio The simulation of judgment in LLMs pubblicato dal prof. Walter Quattrociocchi, Professore ordinario di Informatica presso l’Università di Roma La Sapienza e Edoardo Loru, Jacopo Nudo e Niccolò Di Marco su PNAS mette in evidenza quello che appare attualmente come il principale problema attribuibile all’utilizzo di questa tecnologia, ovvero l’epistemia, termine che in questo contesto indica una precisa condizione di mancanza di validità e che pone in evidenza le problematiche conseguenti, che stanno mettendo in crisi non solo la divulgazione scientifica, ma anche il nostro stesso modo di percepire la realtà.

Il professor Walter Quattrociocchi.
Il professor Walter Quattrociocchi.

Il termine epistemia sta avendo grande eco negli ultimi tempi, in un’accezione ben specifica, grazie al vostro studio The simulation of judgment in LLMs: è stata citata come «parola dell’anno» da Wired ed è all’origine di molti dibattiti ed approfondimenti. A proposito, lei ha dichiarato che «non indica una crisi dell’informazione, né una semplice perdita di verità. Indica un cambiamento di regime»: in che senso? Qual è il contesto nel quale è nata e sulla sua importanza in questo momento storico?
«Il quadro generale nasce dal fatto che prima di dedicarmi a questo argomento, mi sono occupato a lungo di disinformazione (è stato, con il suo team, tra i primi a misurare le caratteristiche delle cosiddette «ecochamber», ndr). Quindi sono sempre stato a contatto con questa trasformazione portata dal digitale, che dapprima con le piattaforme ha cambiato il “business model” dell’informazione, trainando poi la società verso una segregazione che a sua volta ha portato alle ecochamber, dove ognuno si cerca l’informazione che più gli piace rafforzando la propria “bolla” di conoscenza. Poi sono arrivati i Large Language Model (LLM) che hanno aggiunto un nuovo fattore al business model dell’informazione, ovvero una facilità estrema nel produrre contenuti plausibili. In pratica, il business model delle piattaforme premia l’attenzione e quindi ti spinge a ricercare le visualizzazioni per essere remunerato; ora, in questo tipo di processo tutti cercano il loro spazio di visibilità: ed ecco l’esubero recente di “ricercatori indipendenti”, ovvero di esperti improvvisati su qualsiasi argomento, che traggono grande vantaggio dall’utilizzo dei LLM, grazie ai quali riescono ad ottenere facilmente affabulazioni plausibili – non davvero ancorate a dati reali – riguardo a qualsiasi cosa, paventando così affermazioni comprovate che invece non lo sono affatto, ma riescono a diffondersi grazie a chi le “prende per buone” e le fa proprie, confermando la propria bolla».

Una questione fondamentale che viene profilata è quella dell’immagine che a livello mediatico l’utenza comune, i non addetti ai lavori, sembra essersi fatta riguardo alla cosiddetta «intelligenza artificiale», meglio descritta come LLM e al suo ruolo nel fornire informazioni: qual è l’errore fondamentale?
«Di fatto la plausibilità linguistica è sempre stata affascinante per l’essere umano: in presenza di linguaggio formalmente ben costruito, interessante, dall’apparenza forbita, le soglie di verifica si abbassano naturalmente: storicamente, infatti, la filosofia si è confrontata con il problema di una forma che oscura il contenuto, di una sofisticazione linguistica artificiosa. Però prima del digitale le possibilità di accesso alle “esuberanze linguistiche” e al loro fascino acritico era piuttosto limitata. Adesso la questione è molto più perniciosa: oggi posso affidare ad un LLM il compito di produrre un testo plausibilmente autorevole, spacciarla per mia e diffonderla sui social, ma saltando a pié pari il processo di verifica del contenuto. A questo punto la plausibilità linguistica diventa l’unico criterio di verità, dal momento che la plausibilità cognitiva è stata completamente delegata… ad un mezzo che però non è cognitivo, ma è una banale automazione linguistica che assembla parole per prossimità, in  base a quante volte sono stati rilevati determinati accostamenti di parole. Stiamo quindi disarticolando completamente la filiera della produzione della conoscenza».

Il concetto si cala quindi nel contesto di una trasformazione profonda del nostro modo di conoscere e di intessere relazioni con l’informazione (e quindi, conseguentemente, con la realtà oggettiva), la cui portata sembra ancora difficile da prevedere…
«La trasformazione è presente e la sua portata io non riesco a prevederla perché è gigantesca. Per dire, mi trovo studenti all’università ai quali affido dei progetti da sviluppare che mi arrivano con delle relazioni create dall’I.A. a partire da un semplice prompt, apparentemente coerenti e ben fatte, ma che poi alla verifica approfondita rivelano errori grossolani proprio perché generati su semplice base linguistica, senza verifiche di contenuto. Il problema è che quando chiedi conto degli errori, non sanno cosa risponderti, perché non hanno davvero lavorato. Però hanno “prodotto” un lavoro. Questa è l’“epistemia”, la malattia della conoscenza certa, tale che la validità linguistica diventa l’unico metro di validazione. Il giudizio sostanzialmente salta la fase di analisi dell’adesione alla realtà per confrontarsi soltanto sulla forma, quindi sostanzialmente c’è una simulazione linguistica basata su pattern statistici di una plausibilità che però non è ancorata al reale. La simulazione del giudizio, al posto del giudizio, la simulazione della conoscenza al posto della conoscenza».

Per essere chiari: qual è la differenza tra epistemia e “disinformazione”, in che modo la prima può essere considerata un’evoluzione della seconda?
«La disinformazione è un effetto collaterale del business model dell’informazione – l’informazione da ambiente social, per intenderci, quella secondo la quale vengono creati degli artifici retorici finalizzati alla promozione di una specifica narrazione (che ottenga visualizzazioni e condivisioni monetizzabili, ndr). L’epistemia si pone a un altro livello in relazione all’informazione, cioè quello della definizione della conoscenza, poiché ciò che viene esposto come vero, consiste invece in una simulazione di conoscenza».

Cosa auspica, una maggiore regolamentazione e quindi una sostanziale “passività” o una maggiore consapevolezza delle persone e quindi la stimolazione ad una capacità critica attiva? E come si può ottenere quest’ultima nel contesto dell’attuale epistemìa?
«Simo ormai in un frangente nel quale l’inerzia è tale per cui penso sia sostanzialmente impossibile “tornare indietro”, credo – come ho sempre creduto anche per la disinformazione, illo tempore – che questo tipo di questioni non si risolva “semplicemente” con il “fact checking”, piuttosto con una consapevolizzazione dell’utente: l’utente deve sapere cos’è lo strumento che utilizza».

Certo non è facile indurre le persone a formare una capacità critica, quando le sostanzialmente abituate a non averla…
«Certo, questo impone un aumento del grado di responsabilità degli utenti. E la responsabilità appartiene un po’ a tutti, dalle istituzioni al mondo del giornalismo, che a loro volta dovrebbero dotarsi di una capacità di lettura della realtà molto più raffinata rispetto a quella espressa attualmente. D’altronde se c’è un equivoco fondamentale sul funzionamento dei LLM, questo riguarda anche chi fa divulgazione che ad un certo punto si è fatta affabulare dalle narrazioni provenienti dalla Silicon Valley facendole proprie e adesso sradicarlo è complesso».

Lei in una recente intervista per Treccani ha dichiarato che “gli esseri umani non inseguono la verità, ma la narrativa”: è questo il nostro “peccato originale”? Il nostro funzionamento come esseri biologici e come specie dipende (anche) da questo?
«Si, assolutamente: biologicamente la nostra attenzione alle informazioni dipende dal costo che comporta l’ignorarle. Istintivamente ignoriamo le informazioni a meno che queste non abbiano un valore o strategico o cognitivo. Di fatto noi tendiamo ad assumere informazioni coerenti con la nostra visione del mondo e quindi ci atteniamo alla coerenza narrativa, perché ristrutturare un sistema di credenze ha un costo biologico che non siamo necessariamente disposti ad affrontare».