L'imprevisto scatto evolutivo dell'IA

Si chiama Mythos Preview e secondo i suoi sviluppatori è il modello di intelligenza artificiale più potente al mondo. Dichiarazioni già lette e sentite, in particolare in un settore tecnologico estremamente competitivo e influente come quello dell’IA. Eppure, stavolta potrebbe essere diverso. Potrebbe essere vero. Facciamo un passo indietro per capire meglio il contesto. Dietro a Mythos c’è Anthropic, azienda in crescita vertiginosa e protagonista di una recente battaglia legale con il Governo degli Stati Uniti. Poco tempo fa, alcuni ricercatori della società si sono trovati di fronte a qualcosa di inaspettato: un modello inizialmente previsto per scrivere rapidamente complessi codici informatici poteva trovare altrettanto velocemente le falle contenute nei software più diffusi al mondo. Prima di diffondere la notizia, Anthropic ha nuovamente testato il modello su sistemi operativi di largo consumo. Ad esempio, OpenBSD, diffuso ovunque proprio perché affidabile e sicuro. Mythos ha scoperto una vulnerabilità vecchia di 27 anni sfuggita a migliaia di controlli umani. Una falla che avrebbe permesso a chiunque dotato di conoscenze informatiche di base, di mandare in tilt da remoto tutte le macchine dotate di OpenBSD. Stesso destino per Linux, software che gestisce la maggior parte dei server mondiali, in cui il modello di IA ha scoperto numerose vulnerabilità. Che cosa significa tutto questo? Che il settore dell’intelligenza artificiale sta per compiere un salto evolutivo enorme, potenzialmente capace di mettere in pericolo la cibersicurezza delle infrastrutture globali. Le parole di Anthony Grieco, vicepresidente di Cisco, grande azienda di telecomunicazioni statunitense, hanno rotto l’incantesimo: «Le capacità dell’intelligenza artificiale hanno superato una soglia che cambia radicalmente l’urgenza di proteggere le infrastrutture critiche dalle minacce informatiche, e non si può tornare indietro».
La mossa successiva di Anthropic, dopo la scoperta e i test di efficacia di Mythos, va letta proprio in questa direzione. È stato infatti costituito un consorzio di una quarantina di aziende «sistemiche» americane - ne fanno parte, per capirci, Google, Amazon, Microsoft, Apple, Nvidia, JP Morgan - che disporranno di un accesso sicuro e controllato a Mythos. I membri di Project Glasswing, così si chiama l’iniziativa, potranno utilizzare il modello per scoprire le vulnerabilità presenti nei loro sistemi e metterli in sicurezza. In sicurezza, sì. Perché è questo il punto centrale, nonché il più preoccupante. «Data la velocità di progresso dell’intelligenza artificiale, non passerà molto prima che tali capacità si diffondano, potenzialmente anche al di fuori della portata degli attori impegnati a implementarle in modo sicuro», ha scritto Anthropic.
Tradotto: non c’è più tempo. L’IA ha raggiunto livelli di sviluppo tali da richiedere un intervento per blindare al più presto i sistemi informatici di tutto il mondo. Gli Stati Uniti hanno già intravvisto l’onda all’orizzonte e stanno correndo ai ripari. Oltre al consorzio di multinazionali, infatti, si sta muovendo anche il Governo. Bloomberg giovedì ha rivelato che il segretario al Tesoro statunitense Scott Bessent e il presidente della Federal Reserve Jerome Powell hanno convocato questa settimana una riunione urgente con gli amministratori delegati delle principali banche presenti a Wall Street. «Fate attenzione, perché qualcosa di mai visto prima sta arrivando», è stato l’allarme lanciato da Washington ai principali istituti di credito americani. Banche che rappresentano solo una piccola parte di aziende «critiche». Traslando i potenziali rischi contenuti nei nuovi modelli di IA ad altri settori sensibili - infrastrutture militari, reti energetiche, ospedali, istituti di ricerca, media, trasporto aereo - comprendiamo più facilmente l’urgenza di agire. Anthropic - che non intende rendere pubblico il modello per evidenti ragioni di sicurezza - stima in mesi, nemmeno anni, lo sviluppo di un modello simile a Mythos da parte di altri attori, e non per forza «buoni». È la conseguenza della «democratizzazione» dell’IA, unita alla competizione estrema in questo campo e all’interesse di organizzazioni o Paesi di dotarsi di armi digitali potentissime. I segnali arrivati in questi giorni dagli Stati Uniti, del resto, sono inequivocabili: chi non corre ai ripari, rischia di non avere difese.


