L'intervista

«L’intelligenza artificiale non deve superare l’etica»

In occasione del recente Digital Festival Zurich abbiamo incontrato lo psicologo del lavoro e docente alla University College London (UCL), nonché responsabile dell’innovazione presso ManpowerGroup, Tomas Chamorro-Premuzic
Le nostre decisioni vengono sempre più delegate agli algoritmi «suggeritivi» progettati per catturare la nostra attenzione. © Keystone/Christian Beutler
Dimitri Loringett
26.09.2023 22:59

Finora i sistemi informatici «intelligenti» si sono limitati, in sostanza, a semplificare le nostre vite che svolgiamo online. Ora, a quasi un anno dall’arrivo di ChatGPT sui nostri schermi, vediamo la incredibile capacità (auto)generativa degli algoritmi e temiamo di perdere il nostro posto di lavoro. Ma questa rivoluzione sarà davvero diversa dalle precedenti? Ne abbiamo parlato con lo psicologo del lavoro e docente alla University College London (UCL), nonché responsabile dell’innovazione presso ManpowerGroup, Tomas Chamorro-Premuzic, in occasione del recente Digital Festival Zurich.

Professor Chamorro-Premuzic, quanto siamo lontani, o vicini, a questa paventata rivoluzione nel mondo lavorativo?

«Al momento nessuno può davvero dirlo e io sono molto a disagio con le previsioni, anche perché se si guarda alle passate previsioni, la maggior parte delle volte ci siamo sbagliati completamente. Per esempio, nel suo libro del 2013 Big Data, Viktor Mayer-Schönberger, professore all’Università di Oxford, prevedeva che entro 10 anni quasi la metà dei posti di lavoro esistenti allora non sarebbe più esistito oggi. Questo non è successo perché, di fatto, i cambiamenti non avvengono così rapidamente. In base alle osservazioni mie e di molti altri, ritengo che l’intelligenza artificiale (IA) non eliminerà così tanti posti di lavoro come si pensa. Casomai automatizzerà singoli passaggi all’interno delle attività lavorative. Per esempio, per diventare un buon “tassista” di Uber non serve sapere come orientarsi in città: basta avere un navigatore, una vettura pulita e sapere tenere una conversazione. Credo sia più probabile perdere il lavoro a causa di un essere umano che utilizza l’IA, anziché a causa dell’IA stessa - specialmente se non la usiamo. Ecco perché mi preoccupo di più delle persone che non si preoccupano affatto di come potrebbe cambiare il loro lavoro».

Come sta cambiando, con l’IA, il settore delle risorse umane?

«La tendenza in atto è quella di usare l’IA per svolgere buona parte del lavoro preliminare nella selezione dei candidati, un’attività che un tempo era costosa e che richiedeva molto tempo, tra colloqui personali, test attitudinali ecc. Oggi con i sistemi che adottano l’IA basta porre un paio di domande al candidato, integrarle con alcuni dati presi da LinkedIn o altre fonti online e il sistema può dire se il candidato è curioso, se ha buone competenze relazionali, se lavora sodo, o se è interessato alle diverse questioni della vita. Questo potrebbe sembrare inquietante, ma ha il pregio di rendere la selezione del personale molto più inclusiva perché si allarga il bacino di talenti. Se invece si guardano solo alle classiche credenziali (laurea, diplomi, certificati), si “escludono” i candidati e le loro competenze trasversali (soft skills), che sono quelle su cui si focalizzano sempre più i selezionatori di personale».

La «dataficazione», ovvero la trasformazione in dati di molti aspetti della nostra vita, è ormai inevitabile: ha ancora senso avere più regolamentazione?

«Spesso la regolamentazione è troppo poca e giunge troppo tardi e, oltretutto, le grandi aziende non hanno problemi ad aggirarla. Credo però che la protezione dei dati sia solo una piccola dimensione dell’etica dell’IA. Bisogna porsi piuttosto la domanda se con la dataficazione c’è un effettivo beneficio per i consumatori, se ha un impatto sull’equità sociale ecc. Si può garantire la sicurezza dei dati di una persona, ma cosa succede quando, ad esempio, l’IA viene utilizzata per deciderne il credit score per una polizza assicurativa? Non sto dicendo che questo sia necessariamente un male, piuttosto che potrebbe essere migliore dello status quo. Queste sono domande etiche, non domande di natura giuridica. Non sarebbe difficile creare un quadro etico e legale in cui si permette agli algoritmi di avere accesso a tutto il profilo digitale di una persona, a condizione però di esserne proprietario. Quindi, dobbiamo garantire l’etica, più che la mera regolamentazione, che in genere si occupa solo di garantire l’anonimato e la protezione dei dati. E se la regolamentazione è troppa severa, alcuni dei benefici che la dataficazione potrebbero avere per i consumatori e le imprese svaniscono. Sarebbe come gettare il bambino con l’acqua sporca».

Come si raggiunge la consapevolezza digitale?

«Questa è una buona domanda e un punto importante. Penso che dovrebbe cambiare completamente il sistema formativo, in modo che le persone abbiano interazioni precoci con l’IA. Nelle università in cui insegno, molti dei miei colleghi volevano subito bandire ChatGPT, mentre io ho obbligato i miei studenti a usarlo. Invece di chiedere loro di scrivere un saggio su Freud, chiedo loro di scrivere un saggio su ciò che ChatGPT sbaglia su Freud. Devono quindi pensare e aggiungere un valore umano alle informazioni disponibili. Se tutti potranno avere accesso alle stesse informazioni e intuizioni e contenuti creati dall’IA generativa, ci sarà molta richiesta di persone che siano in grado aggiungere qualcosa di originale e creativo. Questo impatterà la vita di molte persone, è innegabile. Ma non è diverso da come la tecnologia ha influenzato la creatività in altri ambiti. Quando sono stati inventati i sintetizzatori musicali, per esempio, i compositori hanno iniziato a usarli. Quando è stata inventata la fotografia, i pittori sono stati spinti a dipingere in modo meno descrittivo, facendo nascere diverse innovazioni artistiche. Credo che ci sarà un grande cambiamento in ciò che consideriamo creativo, ma continueremo a valorizzare ciò che è fatto dall’uomo».

Nel suo ultimo libro I, Human scrive che l’IA rischia di esacerbare i tratti meno desiderabili del comportamento umano. Questo però lo osserviamo già da inizio millennio con l’avvento dei social media…

«La sequenza degli eventi è quella: prima Internet, poi i social media. L’utente medio interagisce con queste piattaforme attraverso algoritmi “suggeritivi” (nudging) progettati per catturare ed essenzialmente monopolizzare la nostra attenzione. Si stima che una persona trascorrerà in media sette anni della sua vita sui social media e venti davanti a uno schermo. Inoltre, le nostre decisioni vengono delegate sempre più agli algoritmi, per esempio quando scegliamo un vino, un albergo, un incontro romantico, un lavoro ecc. Ciò che è importante capire è che la valutazione finanziaria delle grandi aziende tecnologiche si fonda sulla loro capacità di “standardizzare” e vendere i tratti comportamentali umani».

I meccanismi di nudging però li conosciamo già da tempo in ambito marketing…

«Certo, ma nell’era dell’IA c’è qualcosa di nuovo: l’enorme quantità di dati digitali. Ci sono tre livelli di dati. Il primo, che la maggior parte di noi ha già utilizzato, riguarda i dati pubblici (“chiediamo qualcosa a Internet, la macchina ci fornisce una risposta”). Il secondo riguarda lo sfruttamento commerciale dei dati sul piano organizzativo, con l’IA generativa che può automatizzare alcune decisioni che si fanno in azienda, poiché molte dispongono di importanti quantità di dati. Il terzo livello, che è il vero obiettivo del big tech, è quello di scendere sul piano individuale e personale e dotarci, sui nostri dispositivi mobili, di un “coach”, o di consulente personale digitale che prenda più decisioni per noi».