Intelligenza artificiale

Ma alla fine, chi è uscito vincitore dal terremoto di OpenAI?

Al di là del ritorno in pompa magna di Sam Altman nell'azienda che ha co-fondato, a imporsi è stata la visione di una tecnologia «buona» e, allargando il campo, capitalistica
©Copyright 2023 The Associated Press. All rights reserved
Marcello Pelizzari
23.11.2023 16:00

C'è chi, nel descrivere quanto successo a OpenAI in questi giorni, ha perfino scomodato Antonello Venditti. Certi amori non finiscono, già. Fanno dei giri immensi e poi ritornano. In realtà, fra il siluramento e il ritorno (dopo una mezza rivolta fra dipendenti e dirigenti) di Sam Altman è passato un amen. In mezzo, però, è stato detto e scritto di tutto: dalla guerra intestina fra il consiglio di amministrazione e lo stesso Altman – cofondatore e amministratore delegato della start-up americana, responsabile di ChatGPT – al dilemma su come sviluppare l'intelligenza artificiale. Se, insomma, spingere affinché lo sviluppo sia veloce, nel nome del profitto, oppure rallentare per garantire che vengano considerate le necessarie misure di sicurezza per la società. Il tutto, evidentemente, ha assunto i contorni della tragicommedia o della telenovela, a voi la scelta. Anche perché Microsoft, partner strategico e principale finanziatore di OpenAI, ha messo il becco e non poco nella vicenda.

Accelerare o rallentare, intendiamoci, hanno una valenza anche filosofica. Da un lato, infatti, l'intelligenza artificiale è vista come una forza positiva. Un'innovazione che ha cambiato e cambierà sempre più l'umanità. In meglio. Di riflesso, per le aziende capaci di sfruttarne il potenziale o per la stessa OpenAI, fra le prime a profilarsi su questo fronte, si potrebbe aprire un'era di guadagni e prosperità. Dall'altro, invece, senza scomodare necessariamente le tre leggi della robotica di Asimov o richiamare alla memoria la critica veicolata da Robocop, i cui protagonisti hanno avuto il torto di piegare diritti e doveri al mercato, c'è il rischio che l'AI diventi senziente o, peggio, che prenda il sopravvento sull'umanità. Uno scenario, certo, apocalittico. Eppure, la politica negli Stati Uniti se ne sta occupando. E pure OpenAI, prima del terremoto, aveva creato una squadra per individuare rischi e possibili derive dei modelli di intelligenza artificiale.

Chi ha vinto, dunque, venendo a OpenAI? Microsoft, secondo alcuni, capace di affermare e riaffermare la propria paternidad – volendo riprendere un'espressione sudamericana – rispetto alla start-up: i miliardi promessi a OpenAI, infatti, in gran parte erano e sono legati all’utilizzo delle infrastrutture cloud di Microsoft. Tradotto: il finanziamento di OpenAI altro non è se non il diritto di utilizzare l’infrastruttura di Microsoft. La mossa di abbracciare, tempo zero, proprio Altman dopo il siluramento ha sottolineato, con forza, questo vincolo. Ma a vincere, come ha scritto il New York Times, è stata altresì la visione positiva o, se preferite, commerciale dell'intelligenza artificiale. Altman, dal canto suo, ha imposto la rimozione di tre membri del board che avevano spinto per allontanarlo: Ilya Sutskever, scienziato capo di OpenAI nel frattempo pentitosi della mossa, Helen Toner e Tasha McCauley. Tutti e tre, per anni, hanno approcciato il tema dell'intelligenza artificiale con un misto di eccitazione e soggezione. Tenendo sempre presente il concetto di singolarità. Il punto, cioè, in cui l'AI avrebbe superato le nostre capacità di contenerla. A tal proposito, prima del siluramento di Altman, come riportato da Reuters, alcuni ricercatori avevano inviato al consiglio di amministrazione una lettera in cui mettevano in guardia su una scoperta nell'intelligenza artificiale che poteva minacciare l'umanità.

Sutskever, convinto ad abbracciare OpenAI nientepopodimeno che da Elon Musk, Toner e McCauley non hanno mai visto nel profitto un fine ma, al limite, una conseguenza. Le loro posizioni, inoltre, aiutano a comprendere come mai OpenAI abbia mantenuto, negli anni e fino alla crisi di questi giorni, una struttura di governance quantomeno complicata: un consiglio di amministrazione tutto fuorché orientato al profitto che, di fatto, controllava le operazioni dell'azienda – che dal 2019 si era dotata di una branca, diciamo così, commerciale – e dei suoi leader. L'idea, così facendo, era di proteggere OpenAI dal capitalismo bruto o dal turbo-capitalismo. 

Le cose, però, nel frattempo sono cambiate. Riformuliamo: è cambiato il modo in cui l'intelligenza artificiale è vista e «usata» dalle persone. Se prima era un concetto quasi astratto, oggi – proprio grazie a ChatGPT – l'AI è anche, se non soprattutto, un prodotto. Da inserire in altri prodotti, come il pacchetto Office di Microsoft. Le ripercussioni economiche, per forza di cose, sono enormi. Per questo, anche per questo, il nuovo consiglio di amministrazione ora è formato da personaggi navigati e scafati. Uomini d'affari, ma anche politici. Adam d'Angelo, Bret Taylor e Lawrence H. Summers. Taylor, in particolare, ha guidato la vendita di Twitter a Elon Musk. Summers, invece, già Segretario del Tesoro, ha sempre sostenuto che il cambiamento tecnologico sia un bene per la società. 

L'intelligenza artificiale, è bene sottolinearlo, non è un gioco. Anche se gli ultimi, tormentati eventi in seno a OpenAI in effetti hanno fatto pensare, subito, a una dimensione ludica. Fanciullesca, anche. Come se bambinoni che di crescere non vogliono proprio saperne, dopo essere andati d’amore e d’accordo, all’improvviso non fossero più sicuri sulle regole da applicare. Non è un gioco, dicevamo, eppure la partita sembrano averla vinta Microsoft e chi, in generale, vede nell'AI un prodotto. D'altro canto, se davvero l'intelligenza artificiale è destinata a segnare un'epoca – non a caso si parla già di quarta rivoluzione industriale – difficilmente può essere governata da chi vorrebbe rallentarne lo sviluppo o procedere con maggiore cautela. Con tutti i rischi del caso.