«I social hanno cambiato la politica, ma oggi l’IA apre nuove opportunità»

Il modo in cui l’IA viene presentata, regolata e percepita conta quanto le sue capacità tecniche. Anche questi aspetti meritano attenzione, se si vuole promuovere un uso dell’IA coerente con i valori democratici. Partirà da qui, oggi al Möbius, l’intervento di Fabrizio Gilardi, politologo e professore all’Università di Zurigo.
Professore, in che modo l’intelligenza artificiale generativa sta cambiando il panorama democratico e politico?
«L’IA generativa, come ChatGPT, si inserisce in una dinamica che va avanti da oltre dieci anni, con i social media che hanno già trasformato profondamente la politica. Anche qui gli effetti sono contrastanti: ci sono rischi reali, come la disinformazione o i deepfake, che però a volte vengono esagerati nel dibattito pubblico. Allo stesso tempo, però, l’intelligenza artificiale apre anche nuove opportunità, ad esempio favorendo forme di partecipazione più innovative e aperte, come la deliberazione online».
Come sottolinea lei stesso, l’IA può essere usata per generare contenuti falsi, come notizie manipolate o deepfake. Quali rischi concreti vede per la tenuta delle democrazie liberali?
«La disinformazione era un problema già molto prima dell’IA generativa. Certo, questi strumenti possono amplificarlo, ma va ricordato che non tutto ciò che produce l’IA è dannoso, così come non tutto ciò che viene creato dalle persone è necessariamente affidabile».
Le istituzioni politiche sono preparate ad affrontare questi rischi?
«La difficoltà principale è che l’intelligenza artificiale si evolve a una velocità enorme, spesso in modi difficili da capire e da valutare. Non c’è ancora un consenso su quali siano i rischi più importanti: c’è chi si concentra su minacce speculative e di lungo periodo e chi invece guarda ai danni immediati, meno spettacolari ma già presenti oggi. Un’altra prospettiva è considerare l’IA come una tecnologia “normale”, come lo è stata l’elettricità: i suoi effetti trasformativi ci saranno, ma richiederanno tempo per manifestarsi appieno».
Pensando al futuro delle democrazie, c’è il rischio che l’algoritmizzazione delle informazioni rinforzi le “bolle informative” tra i giovani?
«In realtà le ricerche mostrano che sono soprattutto le persone più anziane, non i giovani, a essere più vulnerabili alla disinformazione. Il problema principale non sono tanto le bolle informative, quanto piuttosto il fatto che molte persone non entrano quasi mai in contatto con informazioni politiche. Si stima che circa il 95% di ciò che consumiamo online riguardi intrattenimento, sport e altri contenuti non politici».
Quali strumenti politici o normativi ritiene urgenti per regolare l’uso dell’IA?
«Una priorità è la trasparenza: bisogna sapere quali dati sono stati usati per addestrare e perfezionare i modelli e quali criteri vengono adottati per testarne la sicurezza. Inoltre, i ricercatori indipendenti devono avere accesso sufficiente a modelli e dati per poterli analizzare in modo serio».
Quale ruolo dovrebbero avere la scuola e l’università nell’educazione all’uso critico dell’intelligenza artificiale?
«Vietare l’intelligenza artificiale è impossibile, oltre che controproducente. Se usata bene può essere molto utile, ma per imparare a usarla in modo critico serve pratica diretta. In questo processo gli studenti possono imparare dagli insegnanti e allo stesso tempo anche gli insegnanti possono imparare dagli studenti».
I media tradizionali godono ancora di un livello di credibilità che può essere un vantaggio in questo scenario. È così?
«Parlare dei rischi dell’intelligenza artificiale è importante, ma è altrettanto importante metterli nella giusta prospettiva. In effetti, anche i contenuti creati dagli esseri umani hanno i loro problemi e l’IA non è automaticamente negativa. I media dovrebbero mostrare sia i rischi sia le possibilità costruttive legate a queste tecnologie. Un approccio eccessivamente negativo rischia di alimentare sfiducia generale e rassegnazione, invece di favorire un uso consapevole e critico».
