Epistemia: quando l'AI mette in crisi la verità

L’A.I. è ormai entrata da tempo e in modo prepotente nel dibattito pubblico, in particolare con l’utilizzo dei cosiddetti Large Language Models (LLM) - come ChatGPT – e uscendo dai ristretti circoli degli esperti e degli addetti ai lavori. Eppure, quasi mai le persone comuni possiedono effettivamente la conoscenza di cosa davvero è e dei suoi effettivi punti di forza e di debolezza. In questo senso il recente studio The simulation of judgment in LLMs pubblicato dal prof. Walter Quattrociocchi, Professore ordinario di Informatica presso l’Università di Roma La Sapienza e Edoardo Loru, Jacopo Nudo e Niccolò Di Marco su PNAS mette in evidenza quello che appare attualmente come il principale problema attribuibile all’utilizzo di questa tecnologia, ovvero l’epistemia, termine che in questo contesto indica una precisa condizione di mancanza di validità e che pone in evidenza le problematiche conseguenti, che stanno mettendo in crisi non solo la divulgazione scientifica, ma anche il nostro stesso modo di percepire la realtà.

Il termine epistemia sta avendo grande eco negli ultimi
tempi, in un’accezione ben specifica, grazie al vostro studio The simulation of
judgment in LLMs: è stata citata come «parola dell’anno» da Wired ed è
all’origine di molti dibattiti ed approfondimenti. A proposito, lei ha
dichiarato che «non indica una crisi dell’informazione, né una semplice perdita
di verità. Indica un cambiamento di regime»: in che senso? Qual è il contesto
nel quale è nata e sulla sua importanza in questo momento storico?
«Il quadro generale nasce dal fatto che prima di dedicarmi a
questo argomento, mi sono occupato a lungo di disinformazione (è stato, con il
suo team, tra i primi a misurare le caratteristiche delle cosiddette
«ecochamber», ndr). Quindi sono sempre stato a contatto con questa
trasformazione portata dal digitale, che dapprima con le piattaforme ha
cambiato il “business model” dell’informazione, trainando poi la società verso
una segregazione che a sua volta ha portato alle ecochamber, dove ognuno si
cerca l’informazione che più gli piace rafforzando la propria “bolla” di
conoscenza. Poi sono arrivati i Large Language Model (LLM) che hanno aggiunto
un nuovo fattore al business model dell’informazione, ovvero una facilità
estrema nel produrre contenuti plausibili. In pratica, il business model delle
piattaforme premia l’attenzione e quindi ti spinge a ricercare le
visualizzazioni per essere remunerato; ora, in questo tipo di processo tutti
cercano il loro spazio di visibilità: ed ecco l’esubero recente di “ricercatori
indipendenti”, ovvero di esperti improvvisati su qualsiasi argomento, che
traggono grande vantaggio dall’utilizzo dei LLM, grazie ai quali riescono ad
ottenere facilmente affabulazioni plausibili – non davvero ancorate a dati
reali – riguardo a qualsiasi cosa, paventando così affermazioni comprovate che
invece non lo sono affatto, ma riescono a diffondersi grazie a chi le “prende
per buone” e le fa proprie, confermando la propria bolla».
Una questione fondamentale che viene profilata è quella
dell’immagine che a livello mediatico l’utenza comune, i non addetti ai lavori,
sembra essersi fatta riguardo alla cosiddetta «intelligenza artificiale»,
meglio descritta come LLM e al suo ruolo nel fornire informazioni: qual è
l’errore fondamentale?
«Di fatto la plausibilità linguistica è sempre stata
affascinante per l’essere umano: in presenza di linguaggio formalmente ben
costruito, interessante, dall’apparenza forbita, le soglie di verifica si
abbassano naturalmente: storicamente, infatti, la filosofia si è confrontata
con il problema di una forma che oscura il contenuto, di una sofisticazione
linguistica artificiosa. Però prima del digitale le possibilità di accesso alle
“esuberanze linguistiche” e al loro fascino acritico era piuttosto limitata. Adesso
la questione è molto più perniciosa: oggi posso affidare ad un LLM il compito
di produrre un testo plausibilmente autorevole, spacciarla per mia e
diffonderla sui social, ma saltando a pié pari il processo di verifica del
contenuto. A questo punto la plausibilità linguistica diventa l’unico criterio
di verità, dal momento che la plausibilità cognitiva è stata completamente
delegata… ad un mezzo che però non è cognitivo, ma è una banale automazione
linguistica che assembla parole per prossimità, in base a quante volte sono stati rilevati
determinati accostamenti di parole. Stiamo quindi disarticolando completamente
la filiera della produzione della conoscenza».
Il concetto si cala quindi nel contesto di una
trasformazione profonda del nostro modo di conoscere e di intessere relazioni
con l’informazione (e quindi, conseguentemente, con la realtà oggettiva), la
cui portata sembra ancora difficile da prevedere…
«La trasformazione è presente e la sua portata io non riesco
a prevederla perché è gigantesca. Per dire, mi trovo studenti all’università ai
quali affido dei progetti da sviluppare che mi arrivano con delle relazioni
create dall’I.A. a partire da un semplice prompt, apparentemente coerenti e ben
fatte, ma che poi alla verifica approfondita rivelano errori grossolani proprio
perché generati su semplice base linguistica, senza verifiche di contenuto. Il
problema è che quando chiedi conto degli errori, non sanno cosa risponderti,
perché non hanno davvero lavorato. Però hanno “prodotto” un lavoro. Questa è
l’“epistemia”, la malattia della conoscenza certa, tale che la validità
linguistica diventa l’unico metro di validazione. Il giudizio sostanzialmente
salta la fase di analisi dell’adesione alla realtà per confrontarsi soltanto
sulla forma, quindi sostanzialmente c’è una simulazione linguistica basata su
pattern statistici di una plausibilità che però non è ancorata al reale. La
simulazione del giudizio, al posto del giudizio, la simulazione della
conoscenza al posto della conoscenza».
Per essere chiari: qual è la differenza tra epistemia e
“disinformazione”, in che modo la prima può essere considerata un’evoluzione
della seconda?
«La disinformazione è un effetto collaterale del business
model dell’informazione – l’informazione da ambiente social, per intenderci,
quella secondo la quale vengono creati degli artifici retorici finalizzati alla
promozione di una specifica narrazione (che ottenga visualizzazioni e
condivisioni monetizzabili, ndr). L’epistemia si pone a un altro livello in
relazione all’informazione, cioè quello della definizione della conoscenza,
poiché ciò che viene esposto come vero, consiste invece in una simulazione di
conoscenza».
Cosa auspica, una maggiore regolamentazione e quindi una
sostanziale “passività” o una maggiore consapevolezza delle persone e quindi la
stimolazione ad una capacità critica attiva? E come si può ottenere
quest’ultima nel contesto dell’attuale epistemìa?
«Simo ormai in un frangente nel quale l’inerzia è tale per
cui penso sia sostanzialmente impossibile “tornare indietro”, credo – come ho
sempre creduto anche per la disinformazione, illo tempore – che questo tipo di
questioni non si risolva “semplicemente” con il “fact checking”, piuttosto con
una consapevolizzazione dell’utente: l’utente deve sapere cos’è lo strumento
che utilizza».
Certo non è facile indurre le persone a formare una
capacità critica, quando le sostanzialmente abituate a non averla…
«Certo, questo impone un aumento del grado di responsabilità
degli utenti. E la responsabilità appartiene un po’ a tutti, dalle istituzioni
al mondo del giornalismo, che a loro volta dovrebbero dotarsi di una capacità
di lettura della realtà molto più raffinata rispetto a quella espressa
attualmente. D’altronde se c’è un equivoco fondamentale sul funzionamento dei
LLM, questo riguarda anche chi fa divulgazione che ad un certo punto si è fatta
affabulare dalle narrazioni provenienti dalla Silicon Valley facendole proprie
e adesso sradicarlo è complesso».
Lei in una recente intervista per Treccani ha dichiarato
che “gli esseri umani non inseguono la verità, ma la narrativa”: è questo il
nostro “peccato originale”? Il nostro funzionamento come esseri biologici e
come specie dipende (anche) da questo?
«Si, assolutamente: biologicamente la nostra attenzione alle
informazioni dipende dal costo che comporta l’ignorarle. Istintivamente
ignoriamo le informazioni a meno che queste non abbiano un valore o strategico
o cognitivo. Di fatto noi tendiamo ad assumere informazioni coerenti con la
nostra visione del mondo e quindi ci atteniamo alla coerenza narrativa, perché
ristrutturare un sistema di credenze ha un costo biologico che non siamo
necessariamente disposti ad affrontare».
