IA, prevenire rischi inaccettabili attraverso le linee rosse

«Senza le garanzie sull’intelligenza artificiale, potremmo presto trovarci di fronte a un caos epistemico, pandemie ingegnerizzate e sistematiche violazioni dei diritti umani. La storia ci insegna che, di fronte a minacce irreversibili e senza confini, la cooperazione è l’unico modo razionale per perseguire gli interessi nazionali». Lo ha detto Maria Ressa, Premio Nobel per la Pace nel 2021.
«L’umanità, nella sua lunga storia, non ha mai incontrato un’intelligenza superiore alla nostra. Entro pochi anni, lo faremo. Ma siamo ben lontani dall’essere preparati in termini di normative, garanzie e governance». Queste sono, invece, parole di Csaba Korosi, già presidente dell’Assemblea generale delle Nazioni Unite.
E poi ancora. «Lo sviluppo di un’intelligenza artificiale altamente performante potrebbe rappresentare l’evento più significativo della storia dell’umanità. È fondamentale che le potenze mondiali agiscano con decisione per garantire che non sia l’ultimo». Parole di Stuart Russell, prestigioso professore di Informatica all’Università di Berkeley.
Potremmo proseguire ancora, e ancora, con altre dichiarazioni di questo tenore. Ma al centro del discorso rimane, deve rimanere, l’appello - presentato all’ONU dalla stessa Maria Ressa - che chiede un accordo globale, entro la fine del 2026, sulle linee rosse da non oltrepassare in tema di intelligenza artificiale. Il titolo dell’appello: «Chiediamo con urgenza che vengano fissate delle linee rosse a livello internazionale per prevenire rischi inaccettabili legati all’intelligenza artificiale».
Rischi per la sicurezza
Nessuno dei firmatari - tra i quali figurano tanti Premi Nobel ed ex capi di Stato - mette in discussione il potenziale dell’IA, né tantomeno la sua utilità acquisita. Lo sguardo è, infatti, in prospettiva: «L’IA ha un enorme potenziale per migliorare il benessere umano, ma l’attuale traiettoria di sviluppo comporta pericoli senza precedenti. Potrebbe presto superare di molto le capacità umane e amplificare minacce come pandemie ingegnerizzate, disinformazione diffusa, manipolazione delle persone su larga scala - inclusi i minori -, rischi per la sicurezza nazionale e internazionale, disoccupazione di massa e violazioni sistematiche dei diritti umani». Alcuni problemi sono già evidenti. Si parla di «comportamenti ingannevoli e dannosi», a fronte dei quali viene comunque concessa - a questi sistemi - un’autonomia «sempre maggiore», sia nell’agire sia nel prendere decisioni nel mondo reale. Questa tendenza è messa in evidenza dagli stessi studiosi. La presenza, tra i firmatari, di Russell ne è un esempio prezioso, in questo senso. E lo stesso vale per Giorgio Parisi, Nobel per la fisica, sempre nel 2021. «Se non adeguatamente governata, nei prossimi anni diventerà sempre più difficile garantire un controllo umano effettivo dell’IA», viene aggiunto nell’appello. In questo senso servono le linee rosse, che potranno concentrarsi sia sui comportamenti sia sugli utilizzi dell’IA e che andranno ad affiancarsi alle sicurezze già previste dalle aziende di IA, i cui standard andrebbero comunque armonizzati.
Limiti politici chiari
Appello che è da considerare, prima di tutto, politico. «I governi devono intervenire con decisione prima che si chiuda la finestra temporale per un’azione realmente efficace. È necessario un accordo internazionale che stabilisca limiti chiari e verificabili per prevenire rischi universalmente inaccettabili. Tali limiti devono basarsi sull’attuale quadro globale e sugli impegni volontari delle imprese, rafforzandoli, così da assicurare che tutti i fornitori di IA avanzata siano soggetti a criteri condivisi». Abbiamo parlato proprio di Parisi, il quale, in una recente intervista, spiegava proprio quanto segue: «Si tratta di una scelta politica importante. E se non si inizia una discussione seria sul tema, credo che sarà impossibile arrivare a una soluzione condivisa e concreta». L’idea è proprio quella di un lavoro di gruppo, su più livelli. «Facciamo appello ai governi affinché si raggiunga un accordo internazionale sui limiti per l’intelligenza artificiale entro la fine del 2026, garantendone l’effettiva applicazione attraverso solidi meccanismi di controllo e di attuazione». A margine dell’appello, vengono suggeriti anche alcuni possibili percorsi, come l’individuazione di un gruppo di Paesi pionieri, per esempio, oppure l’avvio di una consultazione globale con scienziati, società civile e industria (da riassumere poi in un documento finale durante il Dialogo globale sulla governance dell’IA di Ginevra, previsto per il luglio 2026). In tutti i casi, ogni futuro trattato dovrebbe basarsi su tre pilastri: un elenco chiaro di divieti; meccanismi di verifica solidi e verificabili; e la nomina di un organismo indipendente istituito dalle Parti per supervisionarne l’attuazione.
