«La personalizzazione dei contenuti è un problema per la democrazia»

Colin Porlezza, professore assistente di giornalismo digitale all’Università della Svizzera Italiana (USI) di Lugano, si occupa da anni dell’impatto dell’intelligenza artificiale (IA) sul giornalismo e della cosiddetta datificazione, il «processo - dice al Corriere del Ticino - che ha cambiato completamente il giornalismo negli ultimi anni; un processo che è stato innescato dalla digitalizzazione della società e dalla conseguente, enorme, produzione di dati, in gran parte provenienti dall’uso di telefonini o computer».
In ambito giornalistico, spiega il docente luganese, «l’uso di algoritmi generativi per la riformulazione di titoli o la scrittura di testi, come ad esempio quelli che permettono il funzionamento di programmi quali ChatGPT, è soltanto una parte. L’intelligenza artificiale è, in realtà, molto più pervasiva. Basti pensare alla possibilità di accesso a database diversi per la ricerca di informazioni collegate tra loro. Io stesso, a Londra, ho collaborato alla costruzione di un progetto, DMINR, che permetteva l’incrocio di informazioni provenienti da banche dati pubbliche».
Ma ciò su cui oggi sembrano puntare di più gli sviluppatori dell’intelligenza artificiale giornalistica sono la «personalizzazione e la distribuzione selettiva dei contenuti - dice ancora il professor Porlezza - Analizzando i dati provenienti da ciascun utente, l’IA è infatti in grado di stabilire quali siano gli articoli più interessanti per ciascuno e quindi decidere, in modo autonomo, di proporre al lettore un testo invece di un altro».
Stabilire il “chi vede che cosa” o il “chi debba vedere che cosa”, sottolinea il massmediologo dell’USI, pone un «grande problema di democrazia. E non a caso ci sono, a livello di governance in Europa e altrove, le prime analisi e le prime discussioni su come regolamentare la distribuzione e la personalizzazione dei contenuti. L’obiettivo è evitare la creazione delle famose “bolle”. Se ognuno di noi, aprendo un sito d’informazione, vedesse qualcosa di diverso dagli altri o soltanto ciò a cui è interessato, alla fine la condivisione tematica che dovrebbe favorire la discussione sociale potrebbe venire meno. Finiremmo in una cassa di risonanza delle nostre convinzioni: la bolla, appunto, dalla quale sarebbe sempre più difficile evadere».
Vero è che l’IA può aiutare a risolvere il problema del sovraccarico di informazioni, aiutando i giornalisti a identificare le notizie più importanti in un flusso crescente di informazioni. Ma la domanda è: chi decide che cosa sia importante? «La storia - dice Porlezza - ci ha consegnato una dozzina di “valori notizia” sulla base dei quali i giornalisti scelgono che cosa scrivere. Questi valori notizia possono essere programmati negli algoritmi. Rimarrebbe però il problema dell’accuratezza della selezione, che potrebbe non essere ottimale. Tale selezione fa parte del nucleo creativo della professione giornalistica ed è qualcosa su cui giustamente chi fa informazione si mostra sensibile. L’IA generativa, forse, può funzionare quando si tratta di riportare i tabellini delle partite, ma se si entra nella caratterizzazione diventa di difficile gestione».