«Stiamo parlando di una capacità mai vista prima d'ora»

Anthropic, nella comunicazione con cui ha informato di aver creato «Project Glasswing», ha spiegato precisamente alcune delle falle nei sistemi operativi individuati dal «modello di frontiera» (ossia il più avanzato) Mythos. Si tratta dei cosiddetti «zero-day», ossia vulnerabilità precedentemente sconosciute contenute in un prodotto o in un sistema. Tali falle vengono comunemente sfruttate per ciberattacchi di diversa portata.
Di per sé, l’esistenza e lo sfruttamento degli zero-day per attività criminali non sono certo una novità. Eppure, con l’arrivo di modelli IA in grado di scovarli autonomamente su vasta scala, il vero punto di rottura riguarda il principio della divulgazione responsabile. A dirlo al Corriere del Ticino è Laurent Balmelli, imprenditore svizzero attivo tra cibersicurezza e IA, che ha maturato esperienza in IBM negli Stati Uniti e in Giappone prima di fondare due startup poi rilevate da gruppi internazionali, in particolare Snapchat e Citrix.

«Nel settore della sicurezza informatica, la prassi standard è la divulgazione coordinata», spiega l’esperto. «Un ricercatore informa privatamente il fornitore, dandogli il tempo di risolvere il problema prima che diventi di dominio pubblico». La stessa logica dei programmi «bug bounty», «in cui le stesse aziende invitano ricercatori esterni a trovare vulnerabilità in cambio di una ricompensa», un metodo utilizzato anche dalla Confederazione per individuare falle nei sistemi informatici sensibili dell’Amministrazione federale. «Sia l’attività del singolo ricercatore, sia quella legata alle “bug bounty” sono prettamente difensive», sottolinea l’esperto. Ovvero: «Si scopre una falla prima che potenziali hacker possano sfruttarla per i loro scopi criminali».
Due approcci opposti
Ma con Mythos si è passati a un altro livello. «Non stiamo parlando della divulgazione di un particolare zero-day, ma della divulgazione di una capacità mai vista prima d’ora», aggiunge Balmelli. «L’unità di misura non è più un semplice bug, ma una capacità guidata da una macchina di scoprire le falle contenute in molti sistemi». Di fronte a questa realtà, Anthropic e OpenAI hanno scelto strade opposte: la prima ha limitato l’accesso a Mythos a un ristretto consorzio di partner fidati, disabilitando intenzionalmente alcuni guardrail di sicurezza per preservarne l’efficacia; la seconda ha lanciato GPT-5.4-Cyber con un processo di accesso più ampio, il programma «Trusted Access for Cyber» (TAC), abbassando le barriere di rifiuto senza chiarire quali guardrail siano stati rimossi. «Questo approccio solleva parecchi dubbi», osserva Balmelli.
Una corsa contro il tempo
«Il vantaggio che i difensori hanno in questo momento è solo temporaneo», avverte l’esperto. Il più ampio approccio TAC di OpenAI riporta a galla un vecchio dilemma della cibersicurezza. Aprendo l’accesso a un pubblico così vasto, infatti, c’è il rischio concreto di consegnare le chiavi dei nostri sistemi nelle mani di criminali informatici. Che le aziende cerchino di limitare l’accesso o che lo concedano più liberamente, i malintenzionati avranno comunque presto a disposizione modelli simili privi di qualsiasi restrizione. Questa prospettiva rende inutile la sicurezza basata sull’oscurantismo e trasforma l’attuale opportunità di trovare e correggere le vulnerabilità in un’urgente corsa contro il tempo», conclude Laurent Balmelli.

