L’Intelligenza Artificiale e il potere decisionale

Dopo la fase iniziale – quella dei sistemi esperti – caratterizzata da cicli di illusione e delusione, l’intelligenza artificiale (IA) era entrata in una sorta di letargo: aveva infatti uno spazio sempre più marginale nei report relativi alle tecnologie più promettenti; ma questa situazione era solo apparente. I centri di ricerca, infatti, avevano nel frattempo abbandonato le grandi sfide come la creazione del General Problem Solver e si erano focalizzati su ambiti di intervento più limitati e concreti: diagnosi medicale, comprensione del linguaggio umano, supporto ai movimenti robotici, guida dei veicoli, abilità nei giochi di strategia (prima gli scacchi e poi il Go). E, anche se sottotraccia, il mondo dell’intelligenza artificiale è così progredito in modo costante.
Ma questo percorso dell’IA – unito alla disillusione creata dalle mancate promesse della prima fase – ha fatto sì che oggi le aziende e la società stessa siano impreparate a una sua diffusione massiccia. L’inserimento di soluzioni di IA non pone solo un problema di competenze, ma anche di ruolo. Infatti con l’IA il digitale non si limita più ad automatizzare le attività ripetitive, onerose e rischiose per l’uomo, ma sta entrando nel cuore delle capacità umane: i processi decisionali.
Qui sta dunque la sfida posta dall’IA: la rilevanza delle competenze umane e delle sue abilità decisionali man mano che l’accuratezza di questi sistemi cresce e le loro applicazioni si diffondono.
Alcune applicazioni dell’intelligenza artificiale sono già entrate nella vita comune: pensiamo al riconoscimento vocale di Siri usato sugli iPhone, oppure il recente (per lo meno in Italia) sistema Alexa di Amazon. Altre applicazioni entreranno a breve nella nostra vita: ad esempio i sistemi di guida senza conducente.
Altre applicazioni hanno destato molto scalpore per le loro capacità “quasi-umane”. Già la sconfitta del campione di scacchi Garri Kasparov nel 1997, ad opera del programma Deep Blue sviluppato da IBM, creò molto disorientamento fra i paladini dell’intelligenza umana. Ma quando AlphaGo – il programma sviluppato da DeepMind (società del gruppo Alphabet/Google) – ha battuto il campione mondiale di Go (il 19enne cinese Ke Jie), si è aperta una nuova frontiera nell’emulazione dell’intelligenza umana. Questo antico e complesso gioco cinese di strategia richiede, infatti, non solo grande razionalità ma anche intuito e creatività.
In un’intervista Demis Hassabis, CEO di DeepMind, ha spiegato che AlphaGo è autodidatta: è partito da zero studiando partite del passato e poi ha giocato milioni di partite “imparando dai suoi errori”. Come noto nel Go, a differenza degli scacchi, non si riesce sempre a confrontare due stati e identificare quello più conveniente, verso cui orientare le mosse.
Altre applicazioni ancora – soprattutto quelle in ambito militare come i droni a guida autonoma (o unmanned weapons altresì detti “robot killer”) – hanno creato talmente tanti timori da far nascere un’iniziativa dal nome emblematico – Future Of Life Institute – a cui hanno aderito scienziati e imprenditori del calibro di Elon Musk, Steve Wozniak e il recentemente scomparso Stephen Hawking.
Il processo è però oramai inarrestabile e quindi la questione che tocca imprenditori e manager è come convivere e agire con i sistemi di intelligenza artificiale, usandoli per integrare e rafforzare le nostre capacità decisionali ma controllandoli quando tendono a sbagliare o a usare comportamenti stereotipati e quindi troppo prevedibili (e facilmente ingannabili).
Servono nuovi tipi di competenze e sensibilità e una capacità di guardare oltre e intuire implicazioni ed effetti collaterali. Una capacità di valutare non solo gli ambiti tecnici ed economici, ma anche quelli giuridici, politici, sociali, psicologici ... Una capacità di guardare al futuro prossimo, ai trend di cui già si riconoscono i primi segni, alle possibili opzioni di applicabilità, ma sapendo esercitare il pensiero critico e applicare le analisi what-if; in parole povere applicando quel sano scetticismo che Jack Welch considerava la dote più importante di un manager di successo.
Tre in particolare sono i punti di attenzione da tenere presente nell’interazione con i sistemi di IA: 1. La sempre possibile presenza di errori di programmazione; 2. La non trasparenza dei processi valutativi dell’algoritmo; e 3. La qualità dei dati utilizzati dai sistemi di IA.
In alcuni ambiti specifici i sistemi di IA saranno capaci – alcuni già lo sono – di fare meglio di una persona normale: errare humanum est e quindi anche gli algoritmi possono sbagliare senza inficiare troppo i risultati... La vera sfida sarà quella fra sistemi di IA e i veri esperti, cioè coloro che sanno unire esperienza, competenza e intuizione, che sanno riconoscere quando le regole note non si applicano, che sanno cogliere nel dettaglio marginale, talvolta mai visto prima, un segnale capace di capovolgere il giudizio e la conoscenza pregressa. E allora lo scontro deve diventare alleanza e complementarietà.
Se gli esperti si educheranno all’uso dei sistemi di IA – non solo a come usarli ma a capirne e prevederne le logiche (grazie anche a una loro dimestichezza con la logica, i processi induttivi e quelli che “connettono i puntini”, secondo la nota espressione di Steve Job) – allora ne usciranno potenziati. Altrimenti verranno inesorabilmente sostituiti dall’IA.