L'intervista

Marco Camisani Calzolari: «Ecco perché è importante regolamentare l'AI»

A tu per tu con il divulgatore e inviato speciale di «Striscia la Notizia», ospite della ated Digital Night il prossimo 29 febbraio a Lugano
Marcello Pelizzari
24.02.2024 18:00

Quando inizia a parlare, Marco Camisani Calzolari – noto anche con l’acronimo MCC – diventa un fiume in piena. È il suo mestiere, d’altronde. Salito alla ribalta come inviato di Striscia la Notizia, questo italiano trapiantato a Londra in realtà è (anche) altro. Molto altro. Insegnante di comunicazione all’Università, autore di numerosi saggi, consulente del Dipartimento per la trasformazione digitale e, infine, Membro del comitato della Presidenza del Consiglio per le strategie dell’intelligenza artificiale italiana oltreché Membro del comitato scientifico presso il Centro di Ricerca dell’Università La Sapienza. Attivo dagli anni Novanta, è fra i più conosciuti divulgatori di cultura digitale. Lo abbiamo intervistato in vista della sua ospitata all’Asilo Ciani di Lugano, il prossimo 29 febbraio, nell’ambito della ated Digital Night.

Partiamo dalla strettissima attualità, ovvero dall’AI Act dell’Unione Europea oramai in dirittura d’arrivo. Tradotto: l’intelligenza artificiale, almeno in Europa, avrà una sua regolamentazione. Solita domanda: perché, all’epoca dei social network, non ci fu questa lungimiranza?
«È una bella domanda. Bellissima. E la risposta è al tempo stesso semplice e complessa. Innanzitutto, non è così vero che le tecnologie precedenti non siano mai state regolamentate. Anche perché molta della regolamentazione necessaria era già presente. Basti pensare al bullismo. Quello che è mancato, forse, è un certo aggiornamento delle leggi, considerando che il digitale ha velocità e tempi differenti. Legalmente, però, concetti come la diffamazione o la violenza verbale erano già codificati. In secondo luogo, c’è anche una differenza prettamente tecnica».

Ovvero?
«Per quanto i social potessero, e possono, influenzare le nostre vite, e la democrazia allargando il campo, si muovevano e si muovono sfruttando funzioni attivate sempre e comunque dall’uomo, al di là dei processi di automazione. L’intelligenza artificiale, per natura, prende decisioni autonome. Questo, di fatto, è quello che le chiediamo e ciò che vogliamo da lei».  

Proviamo a fare un po’ i luddisti: d’accordo il progresso, ma che ne sarà dell’uomo se ogni aspetto della nostra quotidianità può essere deciso dalle macchine?
«Le decisioni che possono prendere, in effetti, sono molto vaste. Ma qui si apre un altro fronte problematico. Ovvero, grazie a quali dati l’intelligenza artificiale può produrre un determinato contenuto? Rispetto al passato, ai social per intenderci, i sistemi di addestramento dei modelli di linguaggio – come ChatGPT – funzionano diversamente: raccolgono una marea di dati, li digeriscono come fossero ingredienti di un minestrone e, infine, li cancellano. E allora mi vengono in mente altre domande: chi c’è dietro? Chi decide, soprattutto, che cos’è giusto e che cos’è sbagliato nell’allenare una macchina? E i pregiudizi? Le stesse aziende, spesso, di fronte a questi quesiti non sanno rispondere: perché questi sistemi hanno creato vere e proprie reti neurali che hanno trasformato dati e informazioni».

Torniamo allora alla prima domanda. E riformuliamo: l’esigenza di regolamentare l’intelligenza artificiale nasce dal rischio che sfugga al nostro controllo?
«Se, rimanendo ai social network, sappiamo che cosa contengono i database e dove reperire un determinato dato, nel caso dell’intelligenza artificiale non conosciamo il contenuto dei modelli di linguaggio. C’è, inoltre, il dilemma etico e della responsabilità. O meglio, chi si assume l’onere di una decisione della macchina? Più concretamente, ancora, una regolamentazione è necessaria anche per questioni di diritto d’autore. Se l’intelligenza artificiale sa produrre determinati contenuti, è perché ha digerito l’opera dell’uomo. E questa opera è stata digerita attraverso una raccolta perlopiù selvaggia di dati normalmente protetti da copyright. O, peggio, sfruttando dati sensibili. I nostri».

Ma non siamo già in ritardo per tutto questo? ChatGPT e simili sono già sul mercato, hanno già ingerito i dati di cui parla e, soprattutto, negli Stati Uniti non sembra esserci la medesima attenzione alla protezione della privacy che c’è in Europa. Come la mettiamo?
«Beh, il mondo è grande e non possiamo pensare che, se l’Unione Europea va in una certa direzione, tutti seguano il suo esempio. Gli Stati canaglia, per dire, difficilmente vorranno regolamentare il settore e regolamentarsi. E poi, così facendo, l’Europa di turno rischia – paradossalmente ma nemmeno troppo – di farsi del male. Alla Tafazzi. Della serie: noi regoliamo mentre tutti gli altri traggono benefici».

Ma perché gli Stati Uniti sembrano privilegiare di più l’aspetto economico dell’intelligenza artificiale rispetto alla necessità di regolamentare il settore?
«Perché, di fatto, hanno in mano le infrastrutture e, in generale, un’altra forza dirompente e strategica. Dopo essere diventati padroni di Internet e del digitale, ora gli americani sono pure padroni dell’AI. E così, detto con un termine tecnico: che gli frega agli Stati Uniti di regolamentare tutto questo?».

Per quanto uno possa regolamentare il settore, come fai a dire all’hacker nordcoreano di turno che non deve fabbricare video fasulli di Joe Biden? Perfino la lingua, oggigiorno, non è più uno scoglio

L’intelligenza artificiale si collega ai cosiddetti deepfake e alla possibilità che determinati contenuti, come dei video, interferiscano con il processo democratico. Anche qui, i buoi sono già scappati dalla stalla.
«Per quanto uno possa regolamentare il settore, come fai a dire all’hacker nordcoreano di turno che non deve fabbricare video fasulli di Joe Biden? Perfino la lingua, oggigiorno, non è più uno scoglio. È come un colabrodo: puoi cercare di chiudere tutti i buchi, ma qualcosa passa sempre. Per tacere del fatto che ci sono esempi di influenza molto meno eclatanti: su TikTok, social riconducibile al governo cinese, e Pechino non è certo un alleato di Washington, miliardi di persone si beccano contenuti prodotti da uno Stato dichiaratamente poco amico dell’America. Anche questa a suo modo è un’interferenza».

L’impressione è che sia impossibile, ora, tornare indietro.
«Di certo, pensando alla salute di una democrazia, quando convinci un gruppo di persone di una determinata cosa, beh, tornare indietro è impossibile. Il danno rimane. Quante persone, ad esempio, credono che esistano chip sottocutanei per controllare la gente? Se tutto ciò influisce sul processo di voto, credetemi, abbiamo un serio problema».

Prima parlava di buchi da tappare: si riesce ad arrivare alla fonte dei deepfake?
«Raramente. Quello che uno può fare, come istituzione, è favorire la prevenzione, la cultura digitale e la divulgazione. Quando sai che rischi corri, di conseguenza puoi proteggerti meglio. Anche di fronte alle truffe telefoniche, che funzionano perché fanno leva su determinati meccanismi psicologici, esistono modi per verificare che l’interlocutore dall’altra parte stia raccontando il vero».

Lei, a proposito di divulgazione, ha scelto un taglio ironico e brillante per attaccare i criminali informatici tramite Striscia la Notizia. È questa la chiave?
«Striscia è ancora uno dei pochi programmi che raggiungono un’ampia fetta di popolazione. Trattandosi di una trasmissione di intrattenimento, se usassi un linguaggio troppo tecnico nessuno mi darebbe retta. La gente continuerebbe a mangiare e a farsi i fatti suoi. Io dico che bisogna essere seri ma non seriosi».