Il personaggio

Un frate che parla con la AI

Il francescano Paolo Benanti è uno dei massimi esperti di etica tecnologica – Lavora per l'ONU – E sull'Intellingenza Artificiale è aperto: «Non va demonizzata, ma controllata»
Francesco Anfossi
11.01.2026 20:00

Il francescano Paolo Benanti, 52 anni, docente di Teologia Morale alla Pontificia Università Gregoriana e membro della Pontificia Accademia per la Vita, è oggi uno dei massimi esperti mondiali di etica tecnologica. Da tempo ormai studia l’impatto dell’Intelligenza Artificiale sui sistemi sociali, politici ed economici, un lavoro che lo ha portato fino a far parte del gruppo di 38 esperti dell’Onu che si occupa di IA e governance globale. È stato consigliere di Papa Francesco sui temi dell’intelligenza artificiale e dell’etica della tecnologia. La sua riflessione è radicata nella tradizione morale cristiana, ma lo sguardo è universale: «Noi cattolici non abbiamo un set di valori ‘nostri’ che altri non hanno», chiarisce subito, collegato in remoto dalla stanza del convento francescano romano dove ha la residenza e da cui si sposta continuamente per i suoi impegni e la sua missione, una girandola di eventi internazionali che lo portano nei quattro angoli del mondo. Una felpa ha preso il posto del saio francescano che indossa solitamente. «Il contributo che possiamo dare è trasformare l’innovazione in una forma di sviluppo che cooperi al bene comune, essere fermento perché l’innovazione contribuisca positivamente al benessere e alla piena realizzazione dello sviluppo dell’umanità», aggiunge.

Una tecnologia per tutto

Padre Benanti non sopporta gli slogan. Preferisce la precisione: distingue, contesta, sfuma. Quando gli si chiede se l’IA possa intaccare la dignità umana, frena con decisione: «L’intelligenza artificiale è una tecnologia general purpose, cioè può servire per tutto», spiega, «controlla la tenuta di un bullone, oppure può prevedere attraverso degli algoritmi che controllano le vibrazioni, quando il motore di una petroliera di 20 mila tonnellate si bloccherà per usura, evitando per tempo che resti in avaria in mezzo all’oceano. Così come può partecipare a decisioni che toccano la persona. Ed è solo in questo secondo caso che la questione cambia». Il punto non è temere la macchina, ma vigilare: «Bisogna garantire che nessuna scelta della macchina sulla persona sia lesiva dei diritti umani». E avverte: algoritmi addestrati con dati distorti possono produrre discriminazioni reali, soprattutto quando vengono applicati per ragioni economiche ai processi umani più delicati.

Colletti bianchi e tute blu

Autore di opere che vanno da «Le macchine sapienti» (Marietti) a «Human in the loop» (Mondadori), Benanti ha dedicato molta della sua ricerca alla trasformazione del lavoro. Anche qui, rifiuta catastrofismi: «L’IA è un altro anello nella lunga catena dell’automazione», ricorda. «Non è detto che porti benefici a tutti: cambierà la distribuzione della ricchezza e del benessere, come è sempre accaduto». Saranno i lavori più intellettuali a essere trasformati per primi, spiega, mentre molte professioni manuali resteranno meno toccate: «È difficile chiedere a ChatGPT di costruire una palazzina. Diciamo che in genere sono i colletti bianchi a rischiare di più, meno le tute blu. Ma la storia ci ha insegnato che in alcuni Paesi, grazie alla mediazione della politica e dei sindacati, queste diseguaglianze vengono poi bilanciate con una serie di interventi e provvedimenti».

L’esempio della clava

Quando si sposta sul versante più antropologico, il religioso utilizza una delle sue immagini più efficaci. «Sessantamila anni fa la prima clava era utensile o arma? Dipendeva dalla mano che la reggeva». Vale anche per l’IA: «Non è lo strumento in sé, ma come lo usiamo». Un assistente digitale che ricorda a un anziano di assumere una medicina, per lui, è un segno di cura; una tecnologia che induce comportamenti o pressioni sociali, invece, somiglia a un’arma. La responsabilità rimane sempre umana: trasformare «le spade in aratri», dice citando Isaia, anche dentro la stagione delle macchine.

C’è poi la grande questione geopolitica. Come evitare un «primo mondo dell’IA» e un «Terzo mondo» condannato alla dipendenza? Benanti non gira intorno alle parole: «Un data center consuma energia, acqua, telecomunicazioni. È difficilissimo esportarne uno nel Sud globale». Ma non è tutto qui: «Essere proprietari dell’IA significa detenere supremazia tecnologica e geopolitica». E soprattutto, aggiunge, si rischia di scivolare verso un nuovo colonialismo. «Dopo aver estratto risorse e forza lavoro, rischiamo ora di estrarre capacità cognitive. Pagare lavoratori del Sud globale per addestrare modelli è una forma moderna di sfruttamento».

«Esiste un analfabetismo digitale»

La sua analisi non risparmia nessuno. Né i GAFAM (le big tech che hanno monopolizzato il mercato mondiale digitale), né gli utenti. «Se non compriamo nulla sui social vuol dire che siamo noi il prodotto», dice, ricordando che il costo della corrente necessaria a far girare un server supera oggi il costo del server stesso. Ma non attribuisce tutta la colpa alle piattaforme: «Esiste un analfabetismo digitale diffuso: quando apriamo un account sappiamo cosa stiamo facendo?», aggiunge. La società non ha ancora digerito la rapidità di trasformazione che è avvenuta dal 2012 al 2020, quando l’umanità ha compiuto un salto quantico forse superiore a quello della rivoluzione industriale del Settecento, anni in cui gli smartphone hanno riconfigurato abitudini, relazioni, persino linguaggi. Eppure l’Europa, con varie Carte costituzionali internazionali come GDPR (il regolamento Ue sulla protezione dei dati), AI Act e Data Act, sta tentando di frenare l’asimmetria del potere digitale. Non sempre con successo: «Alcune multinazionali reagiscono male: uno dei giganti del digitale sta ritirando prodotti dal mercato europeo».

Il rischio per le democrazie

Il tema della democrazia è forse quello che più lo preoccupa. Quando gli algoritmi non si limitano a predire ma contribuiscono a produrre comportamenti, osserva, diventano una sorta di «pseudo-legge». Ma non rispettano i criteri fondamentali di giustizia distributiva indicati da John Rawls: «Non sono conoscibili, non sono universali e obbediscono solo al proprietario del server». Il rischio è chiaro: «Si instaura una tensione con le democrazie». Non significa che siano destinate a crollare, ma siamo in una fase in cui «ci facciamo domande, senza avere ancora risposte definitive».

Sul piano ecclesiale, infine, rifiuta l’idea che l’algoretica sia un’occasione di propaganda. «Se usiamo l’algoretica per farci ascoltare, la uccidiamo», afferma. La Rome Call for AI Ethics, che ha riunito ventuno tradizioni religiose diverse, rappresenta per lui la strada giusta: alleanze tra «uomini di buona volontà», non rivendicazioni identitarie. Il compito della Chiesa non è recuperare centralità, ma contribuire alla protezione della dignità umana in una stagione complessa.

E quando gli si chiede come sia stato possibile che Internet, nato nei garage della Silicon Valley come un sogno democratico, sia diventato un oligopolio planetario, Benanti risponde senza esitazioni: «La rapidità dell’innovazione e l’assenza di una governance globale hanno concentrato il potere in pochissime mani». Non è complotto, è struttura. Ed è la sfida del nostro tempo.