Tech

ChatGPT in mano al Cremlino: come la Russia manipola le risposte a sua immagine e somiglianza

Mosca sta attivamente plasmando le risposte che riceviamo dai chatbot attraverso il cosiddetto LLM Grooming, ovvero l'addestramento di grandi modelli linguistici
©Peter Morgan
Red. Online
23.10.2025 16:00

Le campagne di manipolazione e interferenza all'estero del Cremlino sono una costante sin dalla Guerra Fredda. Con l'emergere di Internet e dei social, però, la Russia ha potuto ottenere di più, anche molto di più, con meno risorse. Due decenni fa, scrive East StratCom, una task force contro la disinformazione parte del servizio diplomatico dell'Unione Europea, il cosiddetto web 2.0 ha rimodellato la guerra dell'informazione. Ora, invece, l'ascesa dell'intelligenza artificiale ha dato un'ulteriore spinta alle strategie del Cremlino. 

Se prima Mosca proponeva narrazioni su misura, ora parla direttamente alle macchine. Una svolta, questa, per certi versi epocale, a maggior ragione se pensiamo che sempre più utenti, sul web, stanno sostituendo le ricerche classiche su Google con strumenti quali ChatGPT. Detto in altri termini, invece di riempire i social con bot e troll, come ad esempio facevano le imprese mediatiche di Yevgeny Prigozhin, l'apparato di disinformazione russo sta inondando Internet con milioni di articoli e contenuti fuorvianti di bassa, bassissima qualità. Articoli, spiega sempre East StratCom, progettati per essere «raschiati» da strumenti e applicazioni basati sull'intelligenza artificiale. Gli esperti, al riguardo, parlano di LLM Grooming, ovvero dell'addestramento di grandi modelli linguistici (LLM) per riprodurre narrazioni manipolative e disinformazione. L'obiettivo, evidentemente, è far sì che i chatbot come ChatGPT restituiscano risposte filorusse in relazione, ad esempio, alla guerra in Ucraina. 

Questo aspetto, di per sé, non è una novità assoluta. Già nel febbraio del 2024, per dire, l'Agenzia governativa francese Viginum aveva pubblicato un rapporto per denunciare l'operazione Portal Kombat. Una rete costituita da vari siti web che riproducono contenuti con affermazioni false e fuorvianti di media statali russi, influencer pro-Cremlino e altre fonti disinformative. Contenuti, leggiamo, destinati a Paesi come Ucraina, Stati Uniti, Francia, Germania, Polonia, Regno Unito e tanti, tantissimi altri. Il grande volume di contenuti prodotti, ribadisce East StratCom, fa sì che i modelli di intelligenza artificiale tengano conto (anche) del punto di vista russo e filorusso. Detto in altri termini, il Cremlino sta attivamente plasmando le risposte che riceviamo dai chatbot.

Per dire: un rapporto di NewsGuard Reality Check, un sistema di valutazione dei siti web di notizie e informazioni, ha rilevato che Portal Kombat ha falsamente affermato che il presidente ucraino Volodymyr Zelensky aveva vietato la piattaforma Truth di Donald Trump. Sei chatbot su dieci hanno ripetuto questa affermazione, citando la rete disinformativa. La quota di informazioni false e fuorvianti nei dieci principali chatbot è quasi raddoppiata in un anno, passando dal 18% nel 2024 al 35% nel 2025.

Le narrazioni pro-Cremlino in questi modelli sono state collegate altresì a Storm-1516, un'altra campagna di disinformazione russa o, se preferite, una propaggine dell'ex Internet Research Agency, organizzazione nota per aver orchestrato operazioni di influenza online su larga scala, tra cui l'interferenza nelle elezioni statunitensi del 2016. Il collegamento è stato identificato da un team di ricercatori di media forensics della Clemson University nell'autunno del 2023.

Gli sforzi della Russia per «iniettare» disinformazione in un ecosistema informativo di intelligenza artificiale in rapida crescita rappresentano una grave minaccia per la sicurezza globale, in quanto possono distorcere l'opinione pubblica, erodere la fiducia nell'integrità dell'informazione digitale e diffondere narrazioni apparentemente legittime su una scala senza precedenti. Un rapporto di Halyna Padalko per il Digital Policy Hub del Centro per l'innovazione della governance internazionale, su questo fronte, rileva che la Russia ha superato i tradizionali metodi di propaganda per sfruttare gli LLM. Attraverso il cosiddetto adescamento di LLM, Mosca normalizza le informazioni false per farle apparire come informazioni basate sui fatti. Anche piattaforme relativamente affidabili come Wikipedia hanno amplificato la disinformazione del Cremlino citando fonti della rete Portal Kombat.

Con l'aumento del ruolo dei chatbot nel fact-checking e nella ricerca di informazioni, questi sforzi per inquinare l'ecosistema dell'informazione rappresentano una seria sfida. L'automazione e la scala di queste campagne le rendono più difficili da individuare e contrastare, minando la resilienza democratica. Già nel 2017, molto prima di ChatGPT, il presidente russo Vladimir Putin aveva detto che il leader dell'intelligenza artificiale avrebbe «governato il mondo». Sette anni dopo, l'offerta russa per quel trono si basa – paradossalmente, ma nemmeno troppo – su modelli americani e cinesi.