Cerca e trova immobili
Dopodomani

I problemi non risolti

All’intelligenza artificiale molti (troppi) attribuiscono, nel bene e nel male, una onnipotenza che è ben di là da venire
Patrizia Pesenti
Patrizia Pesenti
11.03.2026 06:00

A volte le profezie si avverano. Crediamo una cosa e ci comportiamo in modo tale da farla accadere. L’esempio classico è l’insegnante che, convinto dell’intelligenza di un allievo, lo aiuta a riuscire veramente. Ma non succede sempre. Con l’intelligenza artificiale non funziona. Benché sia convinzione diffusa che la crescita economica oggi dipenda dall’IA, la profezia non si avvera. Da parecchio si sente ripetere che l’IA è responsabile di almeno metà della crescita economica negli Stati Uniti.

Ma è davvero così? Gli analisti delle maggiori banche americane affermano che i massicci investimenti nell’IA hanno contribuito «praticamente zero» alla crescita economica dello scorso anno. Certo, si costruiscono giganteschi centri di calcolo ma questi influiscono relativamente poco sulla crescita economica degli Stati Uniti, piuttosto arricchiscono i Paesi esteri da cui provengono tanti dei componenti installati.

L’intelligenza artificiale può essere senza dubbio utile. Per esempio, «googlare» è ormai sostituito dalle risposte di Gemini, l’IA di Google che appaiono in cima alla pagina. Scrivere o riassumere testi non è mai stato così facile. Però restano poche le aziende che sono riuscite ad avere un ritorno tangibile degli investimenti. Semplicemente l’intelligenza generativa non è affidabile e neppure sembra migliorare in maniera proporzionale alle immense somme investite. Proprio per questo non si capisce perché l’attuale amministrazione americana insista tanto per poter usare Claude di Anthropic per scopi militari quando è proprio l’azienda stessa a dire che in nessun modo il loro sistema dovrebbe essere usato per gestire in modo autonomo decisioni militari. Non perché è troppo performante, ma perché non è pronto. I sistemi di linguaggio non sono del tutto affidabili se gli si chiede una ricetta di cucina, figuriamoci se dovessero gestire armi nucleari da soli senza il controllo di umani.

All’intelligenza artificiale molti (troppi) attribuiscono, nel bene e nel male, una onnipotenza che è ben di là da venire. Anche i critici descrivono scenari apocalittici dove l’attuale intelligenza generativa sarebbe in grado di sostituire la mente umana. In realtà l’intelligenza con cui per ora abbiamo a che fare, i cosiddetti grandi sistemi di linguaggio come ChatGPT, Claude, Gemini e gli altri, sono appunto bravi nel linguaggio, impressionanti nel produrre testi - soprattutto se ne hanno immagazzinati di alta qualità. Sono sempre più bravi anche nel riprodurre immagini e suoni – tra l’altro con devastanti conseguenze quando gente malintenzionata si diverte a usare le fattezze di una persona vera per produrre video falsi e ripugnanti.  Ma l’intelligenza generativa continua a non «sapere» quello che dice o scrive, non capisce neppure le domande, non ne afferra il contesto. Le risposte sono dei calcoli tremendamente complessi per mettere in fila il testo o l’immagine più probabile a seguito della richiesta. Per questo la risposta varia molto a dipendenza di come è formulata una domanda. Se si domanda per esempio a Gemini se il sistema Claude è rischioso se usato per scopi militari risponde in modo molto esaustivo che sì, ci sono tanti rischi. Se si domanda se è pronto a essere usato in ambito militare, risponde che sì, l’IA di Claude è altamente efficace. In altre parole, questa intelligenza artificiale è un sistema di linguaggio, sofisticato e strabiliante, ma non ha nulla a che vedere con l’intelligenza in senso lato.

Pensare che possa impadronirsi del mondo o asservire gli umani non sta in piedi. Forse in futuro saremo (saranno) confrontati con una vera intelligenza che sa capire il contesto, capire il mondo.

Per ora non è così. Purtroppo, l’intelligenza generativa già oggi lascia una scia di problemi non risolti, dalle false immagini pornografiche ai video senza capo né coda. Dai giganteschi centri che si contendono acqua e energia con i cittadini vicini a un sacco di problemi nell’insegnamento se gli allievi si affidano a ChatGPT invece che ragionare e allenare la propria mente. Prima di angosciarci per il futuro abbiamo un sacco da fare nel presente.