Il futuro dell'intelligenza artificiale fra rischi e regole: l'intervista a Roberto Viola
L'intelligenza artificiale ha dominato la fine del 2022 e l'intero 2023. Logico, considerando il successo di ChatGPT ma anche le lotte intestine che hanno contraddistinto OpenAI. Per tacere del dibattito, vivo, anzi vivissimo, attorno ai rischi di questa tecnologia e, di riflesso, alla necessità di contenerla attraverso regole precise. Lunedì alle 18, presso la Sala polivalente del Campus Est dell'Università della Svizzera italiana a Lugano, la Fondazione Möbius organizzerà una serata dal titolo piuttosto chiaro. Come regolamentare l’intelligenza artificiale a beneficio della società. Già, come? Lo abbiamo chiesto direttamente all'ospite della Fondazione, Roberto Viola, direttore generale per le Reti di Comunicazione, i Contenuti e le Tecnologie della Commissione Europea.
Dottor Viola, cominciamo dall'attualità: giorni fa, dopo un negoziato fiume di oltre 36 ore, le istituzioni dell'Unione Europea hanno raggiunto l'accordo sul cosiddetto AI Act, la Legge europea sull'intelligenza artificiale (AI). Si tratta del primo quadro normativo nel mondo per il settore. Domanda banale per cominciare: perché è necessario regolamentare e inquadrare l'AI?
«Perché, come tutte le tecnologie che cambiano il genere umano, c’è anche una spinta verso un'evoluzione indesiderata. Da un lato, conosciamo tutti i benefici di modelli come ChatGPT. Dall'altro, pur entrando in una nuova era, senz'altro migliore per la società pensando ad esempio alla medicina, ai trasporti, a una maggiore sicurezza, oltre ai benefici ci sono altresì dei rischi potenziali. Lo avevamo visto, a suo tempo, con l'energia nucleare. Tradotto: le tecnologie di punta vanno regolamentate e regolate per garantire il massimo risultato. Per garantire, cioè, che diventino un bene comune per il citato genere umano. Non può esserci bene comune senza un quadro di regole chiare».
Tutti noi siamo cresciuti con il mito (e il timore) di film come Terminator. Pellicole distopiche in cui le macchine, a un certo punto, si ribellano all'umanità soggiogandola. È davvero questo il rischio cui andiamo incontro? Quanto è reale la possibilità che si verifichi la singolarità tecnologica?
«Se è per questo io ricordo bene HAL 9000. Battute a parte, il rischio – di principio – esiste. Ne hanno parlato, mettendo il tutto nero su bianco, oltre cento scienziati di grande livello».
Ma in che cosa consiste questo rischio?
«Il rischio, banalmente, è legato al fatto che non conosciamo tutte le possibili evenienze di questi algoritmi. Non possiamo descriverli completamente. Di qui, appunto, la necessità di un regolamento sull'intelligenza artificiale. Ma l'AI Act, attenzione, non riguarda soltanto questo dibattito distopico sui possibili futuri che ci attendono. No, l'AI Act risponde anche a questioni di strettissima attualità, che riguardano tutti noi nell'immediato. Ad esempio: è accettabile che la nostra faccia venga riconosciuta da chiunque in uno spazio pubblico? O ancora: è giusto che non ci sia nessun controllo da parte terza per un'AI usata in medicina? Io individuerei due classi di problemi. La prima classe, diciamo più esistenziale e di interesse globale, richiede un approccio per tappe. Proprio perché di risposte precise, ora, non ne abbiamo. L'AI Act europeo, al riguardo, funziona in maniera molto progressiva rispetto ai grandi algoritmi. La seconda classe, invece, riguarda proprio i modelli che già conosciamo e adoperiamo. E qui, per dire, è bene rispondere a domande precise: quali sono i limiti nell'utilizzo dell'intelligenza artificiale in attività delegate dalla democrazia come l'esercizio della giustizia o della polizia? E ancora: quanto sono sicuri prodotti basati sull'AI come l'automobile connessa o il pacemaker?».
Molti analisti hanno notato una discrepanza fra Stati Uniti ed Europa. Da una parte, in fondo lo hanno dimostrato anche le battaglie all'interno di OpenAI, sembrerebbe che il fine ultimo dell'intelligenza artificiale sia consentire a Big Tech di arricchirsi. Dall'altra, nel Vecchio Continente, l'impressione invece è che le istituzioni premano soprattutto per frenare lo sviluppo tecnologico o, meglio, per inquadrarlo entro certi limiti. Che ne pensa lei?
«Dalla protezione dei dati personali alle regole per Internet, passando per l'AI Act, direi che l'Unione Europea ha dimostrato di avere una costruzione istituzionale che permette di bilanciare gli interessi in gioco. Da quello prettamente industriale a quello delle libertà civili. Credo che l'UE, in definitiva, sia riuscita a trovare l'equilibrio fra libertà fondamentali e praticità. Libertà, è vero, sacre anche negli Stati Uniti. Oltreoceano, però, il sistema non riesce a generare una legislazione capace di sintetizzare i due schieramenti in campo. È un problema ricorrente. Ricordo a suo tempo l'appello del presidente Joe Biden, un appello bipartisan affinché l'America adottasse regole per Internet simili alle nostre. Conforta il fatto che anche a Washington ci sia un dibattito vivo sulla regolamentazione dell'intelligenza artificiale. Poi, è vero, gli Stati Uniti avranno sempre un orizzonte più commerciale e industriale. Ma, anche dai contatti istituzionali che abbiamo, direi che anche gli americani credono di dover contenere l'AI. In questo senso, direi che ci muoviamo in sintonia. Noi, in quanto UE, abbiamo fatto da apripista già con i dati e con Internet. Ci fa piacere farlo adesso con l'intelligenza artificiale. E comunque, al di là del nostro approccio, l'innovazione è una dimensione importantissima anche per l'Unione».
È corretto affermare che l'AI Act intende evitare, fra le altre cose, che colossi come Microsoft dominino il settore?
«Mettiamola così: l'antitrust europeo, quando chiamato in causa, non è certo stato timido nel trattare problemi complessi con Big Tech. Ricordo casi recenti con Google, Apple e con la stessa Microsoft. Se sarà necessario intervenire in questo senso anche nel campo dell'intelligenza artificiale, insomma, l'Europa saprà come muoversi. Forte, fra l'altro, di uno strumento come il Digital Markets Act pensato proprio per calibrare il quadro normativo e favorire la concorrenza. L'AI Act, in concreto, non si occupa di concorrenza. Piuttosto, il suo focus è sulla sicurezza delle tecnologie e sull'uso in ambienti pubblici».
Che cosa pensa, invece, di Paesi come il Regno Unito che intendono sviluppare un'intelligenza artificiale «di Stato»? È qualcosa in cui anche l'UE crede?
«Sì, come Unione promuoviamo questo approccio virtuoso. Lo ha detto anche la presidente della Commissione Europea, Ursula von der Leyen: abbiamo investito e continuiamo a investire un'ingente somma di denaro pubblico per sviluppare una rete di supercalcolatori. Con l'obiettivo di aprire questa rete a tutti coloro che intendono sviluppare modelli secondo regole e principi etici. Se un colosso ha in mano strumenti del genere, poi finisce per influenzare chiunque altro. OpenAI, per intenderci, non dispone di supercalcolatori. I suoi partner sì. E così si è creato un legame simbiotico. Noi, beh, legami del genere preferiamo spezzarli, favorendo un approccio più democratico».
Un'ultima domanda, invero provocatoria: la tecnologia corre, migliora di secondo in secondo, mentre la politica sembra sempre due, tre, dieci mosse indietro. Non è che l'UE sta intervenendo con i buoi oramai già scappati dalla stalla?
«Con Internet, è vero, siamo arrivati a una regolamentazione e a un quadro normativo più o meno trent'anni dopo l'invenzione del World Wide Web, un'invenzione fra l'altro svizzera. Rispetto alle intenzioni degli albori, con la rete che avrebbe dovuto garantire un accesso paritario all'informazione, le cose sono andate un po' diversamente: dalla biblioteca universale siamo arrivati a Big Tech, mentre gli algoritmi sono stati usati anche per amplificare fake news o interferire con le elezioni. L'Unione Europea, alla fine, è arrivata a stabilire delle regole. Ma lo ha fatto, appunto, con i buoi già a pascolare da anni. Con l'intelligenza artificiale, invece, siamo soltanto all'inizio. Stiamo installando dei guardrail in parallelo con lo sviluppo della tecnologia. Non solo, l'AI Act è uno strumento molto flessibile. Grazie anche al meccanismo dell'allerta. L'UE, infatti, schiererà un gruppo di scienziati indipendenti. Un panel in grado di segnalare irregolarità e di intervenire, tramite l'AI Office, presso una determinata azienda. Chiedendo spiegazioni e chiedendo di mettere in campo i correttivi necessari. Uno strumento del genere sarebbe servito come il pane agli albori delle fake news. L'esperienza di Internet ci ha insegnato ad agire prima. A non aspettare che questi buoi scappino».