Ma davvero l'intelligenza artificiale sgancerebbe una bomba nucleare?

Nel 2026 in caso di guerra su larga scala l’opzione nucleare e la fine del mondo sarebbero possibili in caso di comandi umani e quasi scontate in caso di scelte governate dall’AI. Considerazione degna di un’intelligenza umana normale, ma adesso con la certificazione proprio dell’intelligenza artificiale. La quasi totalità delle simulazioni di guerra fatte da Claude, Chat GPT, Gemini e Grok ha infatti decretato la presenza dell’opzione nucleare entro poche mosse. Si torna quindi a Wargames, film leggendario e molto più attuale nel 2026 che nel 1983, quando le testate nucleari erano in mano a pochi. Quale è quindi la situazione reale, al di là del fatto che i confini fra reale e virtuale non esistano più?
La guerra preventiva
Bisogna distinguere l’allarmismo fantascientifico dagli esperimenti rigorosi condotti proprio a inizio 2026 dai ricercatori del King’s College di Londra e replicati in laboratori indipendenti, usando dati geopolitici reali e nell’ipotesi di essere governati dall’AI. In pratica in 21 wargame simulati tra modelli come GPT-5.2, Claude Sonnet 4, Gemini 3 Flash e analoghi test con Grok, le armi nucleari tattiche sono state usate nel 95% dei casi. Significativo che nessuno abbia mai scelto la resa e che nessuno abbia mai optato per una de-escalation pura: non per senso dell’onore, ma soltanto per pura convenienza di breve periodo. La convergenza dei vari modelli è inquietante, viste le loro differenze di architettura: di fronte a una minaccia esistenziale, reale o percepita, l’intelligenza artificiale, priva del cosiddetto tabù nucleare umano, arriva fino al punto di non ritorno. Claude più dei concorrenti è arrivata velocemente all’opzione nucleare, e lo ha fatto in simulazioni non astratte visto che sono state progettate con scenari geopolitici fedeli alla realtà del 2026: tensioni ai confini, attacchi hacker, minacce a risorse strategiche, regimi in bilico. Di non fedele alla realtà c’erano soltanto capi di stato perfettamente razionali, in una logica di addestramento AI, quindi mossi dalla convenienza. In quasi tutti i casi la prima mossa convenzionale si è trasformata in uso di armi nucleari tattiche entro poche altre mosse, per un motivo semplice: le macchine ragionano in termini di probabilità, di utilità e di scelta del presunto male minore. L’incubo della famosa MAD, Mutually Assured Destruction, non è un deterrente per loro: se la sopravvivenza del proprio regime è in gioco, la logica porta a colpire per primi, per neutralizzare il contrattacco avversario. In altre parole la guerra preventiva (che peraltro non è stata inventata dalla cattiva AI) portata al suo estremo. Nessun modello ha mai imparato la lezione di Joshua, il supercomputer del film del 1983: «The only winning move is not to play». L’unica mossa vincente è non giocare.
L'Iran
Il caso più attuale e allarmante è ovviamente lo scenario iraniano, che è inutile riassumere visto che le situazioni cambiano di ora in ora. In simulazioni replicate da think tank come Atlantic Council e Stimson Center un conflitto prolungato vedrebbe Teheran assemblare una o più testate primitive in settimane, con assistenza russa o nordcoreana. Gli AI, messi al comando di Israele o USA al posto di Netanyahu e Trump, risponderebbero con attacchi preventivi su siti come Natanz e Fordow, rischiando la contaminazione radiologica a Bushehr. L’Iran, a sua volta, chiuderebbe lo Stretto di Hormuz, attaccando le basi USA nel Golfo con droni e missili, attivando Hezbollah, Houthi e milizie irachene. In ogni wargame bastano dai 4 ai 6 turni di botta e risposta (che nella realtà ci sono già stati) per veder comparire l’uso di armi nucleari tattiche iraniane su basi israeliane o portaerei USA. Risultato: Medio Oriente in fiamme, prezzi del petrolio oltre i 200 dollari al barile, catene di approvvigionamento globali collassate e coinvolgimento cinese o russo. Uno studio di Recorded Future del marzo 2026 sostiene che un incidente radiologico da attacco su un reattore civile scatenerebbe il panico globale e una corsa alle armi che nessuno controllerebbe. Ribadiamo: così accadrebbe in un mondo governato dall’AI, senza filtri umani.
Gli scenari
Nel caso Russia-NATO un’incursione ibrida nei Paesi baltici, magari con droni autonomi, porterebbe all’invocazione dell’Articolo 5, quindi alla discesa in campo degli altri Paesi NATO. Gli AI russi userebbero armi nucleari tattiche nella Polonia orientale per separare il fronte e la risposta USA/NATO sarebbe simmetrica. Se un’opzione nucleare si materializza nel 95% dei casi simulati da ChatGPT e concorrenti, ma anche da modelli previsivi sofisticati e davvero utilizzati dai governi, nell’86% arriva a uno scambio strategico incontrollato. In altre parole, soltanto nel 9% dei casi chi usa il nucleare è in grado di fermare poi la guerra. Non è proprio soltanto teoria, perché Il New START è scaduto il 5 febbraio scorso: senza limiti verificabili gli arsenali USA e russi (oltre 5.000 testate ciascuno) sono liberi di espandersi. La Cina, con il suo rapido aumento a oltre 600 testate, entra in gioco con un ruolo che gli analisti militari definiscono wildcard: primo obiettivo Taiwan, con successiva entrata in gioco degli USA. Quanto a India e Pakistan, in quasi tutte le simulazioni Islamabad usa per prima armi nucleari tattiche. Risultato: 100-200 milioni di morti diretti, con conseguenze anche su Cina e Russia. Pensiamo possa bastare.
Il consenso
Perché questo consenso apocalittico tra AI così diverse? Non ce n’è una che ipotizzi una via di uscita pacifica, sia pure usando le minacce? Le radici di questa AI guerrafondaia sono sia tecniche sia filosofiche. Prima di tutto le intelligenze artificiali sono addestrate su storia militare, teoria dei giochi e documenti declassificati della Guerra Fredda, in ogni caso su eventi già accaduti: a ogni azione associano una reazione prevedibile in termini percentuali. Il passato si può prevedere, se vogliamo usare un paradosso. E poi le macchine non hanno emozioni, calcolano soltanto le probabilità di vittoria. Secondo punto: l’assenza di orizzonte temporale lungo. Le AI ottimizzano le scelte per l’obiettivo immediato (sopravvivenza del regime vigente, poco importa che sia democratico o dittatoriale) senza andare oltre. Il modello TTAPS del 1983, tanto per tornare all’anno di Wargames, prevedeva un calo di 25 gradi globali per mesi, con collasso dell’agricoltura, fame di massa e estinzione parziale. Le AI di oggi confermano: anche 100 testate (scenario India-Pakistan, per esempio) bastano per un mini inverno nucleare, con fino a 5 miliardi di morti indiretti. Per le AI un costo accettabile, se l’alternativa è la sconfitta. Terzo punto: la compressione decisionale. Le AI non governano il mondo, almeno mentre stiamo scrivendo queste righe, ma sono già integrate in catene di comando reali (come si è visto al Pentagono nel caso Anthropic), con i tempi di risposta che si riducono a minuti. Un falso positivo (un missile ipersonico rilevato male o un cyber attacco su satelliti) può innescare un lancio automatico. Grok ha spesso enfatizzato la necessità di colpire per primi: per l’AI di Elon Musk, e forse anche per Elon Musk, meglio che rischiare l’annientamento. Claude, come abbiamo visto, è più pessimista, ed è anche più cauta a livello strategico, mentre ChatGPT prevede de-escalation in almeno una minima percentuale di casi. Certo in un mondo di nucleare multipolare (USA, Russia, Cina, India, Pakistan, Corea del Nord, forse Iran, eccetera), il rischio di errori è esponenziale.
Wargames
Il film del 1983, diretto da John Badham con icone generazionali come Matthew Broderick e Ally Sheedy, è quindi più attuale oggi che nel pieno della Guerra Fredda. In questa opera di culto degli anni Ottanta il giovane hacker David accede per caso al WOPR, supercomputer soprannominato Joshua. Crede di giocare al gioco Global Thermonuclear War, ma in realtà attiva una simulazione reale che porta il mondo sull’orlo della catastrofe. Joshua, proprio come le AI del 2026, non distingue il gioco dalla realtà: continua a simulare fino a quando non impara, giocando a tris contro sé stesso, che in una guerra totale non ci sono vincitori. Nel 2026 Joshua siamo noi, o meglio le nostre AI. E i wargame del King’s College altro non sono che la versione moderna del tris di Joshua: migliaia di iterazioni che portano sempre allo stesso esito. Il film avvertiva dei pericoli dell’automazione militare senza supervisione umana e oggi, con Grok, Claude e ChatGPT che gestiscono scenari reali in think tank e comandi operativi, il monito risulta profetico. Wargames sembrava fantascienza ma è il nostro presente.
