Il caso

OpenAI non si fida dell'intelligenza artificiale? «Meglio indagare»

La società madre di ChatGPT ha istituito una squadra dedicata all'analisi e alla valutazione dei rischi dei nuovi modelli di AI, fra cui anche la minaccia nucleare – Ma quanto sono concreti scenari così apocalittici?
Creato con Midjourney/OpenAI
Marcello Pelizzari
28.10.2023 19:00

Ne avevamo parlato, tempo fa: e se l'intelligenza artificiale lanciasse una testata nucleare? Uno scenario apocalittico, forse improbabile. Ma, attenzione, non impossibile. Non a caso, negli Stati Uniti, la politica da tempo si è messa al lavoro su questo fronte. La notizia, ora, è che anche OpenAI – la società madre di ChatGPT – si è chinata sul dossier. Annunciando, nel concreto, la formazione di una squadra dedicata all'analisi e alla valutazione dei rischi dei nuovi modelli di AI. E fra i rischi, va da sé, è compresa pure l'estinzione dell'umanità sebbene il focus, principalmente, sia quello di garantire la sicurezza degli utenti.

Il gruppo di lavoro, chiamato Preparedness, sarà guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del Massachussetts Institute of Technology. Il gruppo, leggiamo, avrà il compito di «monitorare, valutare, prevedere e proteggere da rischi catastrofici». OpenAI, dicevamo, fra i rischi ha incluso il peggio del peggio. Ovvero, minacce chimiche, biologiche, radiologiche e nucleari, oltre alla capacità dell'intelligenza artificiale di generare codice malevolo o di ingannare gli utenti. Roba fra Matrix e Terminator, sì, ma maledettamente reale. 

L'annuncio, per quanto insolito e, appunto, apocalittico, è totalmente in linea con la visione di Sam Altman, amministratore delegato di OpenAI, il quale già lo scorso maggio auspicava una maggiore regolamentazione del settore. Proprio per evitare il caos. Di più, Altman ha proprio detto, a più riprese, che l'evoluzione dell'intelligenza artificiale potrebbe condurre all'estinzione umana. Una preoccupazione che, di fatto, lo ha spinto a costruire una vera e propria squadra dedicata allo studio di scenari ammirati, finora, soltanto nei film distopici e di fantascienza.

«Riteniamo che i modelli di intelligenza artificiale di frontiera, che supereranno le capacità attualmente presenti nei modelli esistenti più avanzati, abbiano il potenziale per apportare benefici a tutta l’umanità« ha scritto l'azienda sul proprio blog ufficiale. Ma questi benefici »comportano anche rischi sempre più gravi». Di qui, dicevamo, la volontà di perseguire una politica del passo secondo la gamba, se così vogliamo definirla, proprio per garantire la sicurezza degli utenti e, allargando il campo, del mondo. OpenAI, al riguardo, ha lanciato una sfida: identificare «aree di preoccupazione meno ovvie», affinché gli esperti possano individuare qualunque rischio legato all'evoluzione dei modelli di intelligenza artificiale. Prevenire, insomma, è meglio che curare.

A mo' di esercizio, concludendo, abbiamo chiesto proprio a ChatGPT quanto sia concreto il rischio che l'umanità venga spazzata via da un'intelligenza artificiale. Questa la risposta: «Il rischio di estinzione per l'umanità dovuto allo sviluppo dell’intelligenza artificiale (AI) è un argomento dibattuto tra esperti e studiosi. Alcune teorie, come quelle spiegate film Matrix o Terminator, rientrano nel campo della speculazione e della fantascienza. Tuttavia, esistono preoccupazioni legittime riguardo all’IA e al suo impatto sulla società. Il pericolo principale non è tanto che un’intelligenza artificiale “cattiva” prenderà il controllo del mondo, ma piuttosto che l’uso scorretto o irresponsabile dell’IA potrebbe portare a conseguenze negative. Questo potrebbe includere il potenziale per il bias nei sistemi di AI, la perdita di posti di lavoro, la minaccia alla privacy e l’uso militare dell’AI in modi pericolosi. Per affrontare queste sfide, molti esperti promuovono lo sviluppo di una regolamentazione e di standard etici nell’ambito dell’AI. È importante che l’AI sia sviluppata e utilizzata in modo responsabile e che i governi, le aziende e la comunità tecnologica lavorino insieme per mitigare i rischi potenziali. In sintesi, mentre esistono preoccupazioni legittime sull’AI, è importante affrontarle attraverso la ricerca, la regolamentazione e la responsabilità nell’uso di queste tecnologie, piuttosto che preoccuparsi di scenari apocalittici da film».