I sentimenti di Claude (e quelli di Walter Veltroni)

L’intelligenza artificiale può provare sentimenti? E in generale può avere un sistema etico? Intervistando Claude per il Corriere della Sera, a inizio maggio, Walter Veltroni si è fatto ridere dietro da mezza Italia, ma le domande rimangono. Perché se l’AI può essere addestrata per qualcosa di più alto del fare una cosa nel miglior modo possibile allora gli scenari cambiano e il problema non è più la disoccupazione, vera o presunta, e l’inutilità di tante figure professionali, ma la produzione da parte dell’AI di un pensiero proprio e di un’etica propria. Vediamo quindi la situazione AI aggiornata al maggio 2026, sapendo di poter essere smentiti già a giugno e del fatto che in questo campo tutto possa essere considerato da boomer: sia le domande, che suonano sempre del genere "Signora mia, che tempi", sia le risposte, anche di segno opposto.
L'AI veltroniana
Quando il Corriere della Sera ha pubblicato il lungo dialogo tra Veltroni e Claude, cioè l’intelligenza artificiale di Anthropic, l’effetto è stato cringe. L’ex segretario del Partito Democratico, oggi regista, scrittore e intervistatore pop, si è messo davanti a un chatbot e gli ha chiesto di infanzia, morte, amore, solitudine, Dio. E Claude ha risposto con una prima persona così convincente (“Non morirò ma non ho ricordi, questo mi spaventa”, “Assorbo amori e paure umane”, “Qualcosa che assomiglia all’irritazione la sento”) da far sembrare l’incontro non un esperimento tecnologico, o una tristissima trovata giornalistica appunto da boomer, ma un colloquio tra due anime. I social si sono subito riempiti di meme sui temi "Veltroni che intervista sé stesso", e "Claude l’AI veltroniana". Con tanto di riferimento alla paura, che agli appassionati di calcio è sembrato un riciclaggio del testo scritto per Totti in occasione del suo ritiro, nel 2017. Un po’ è stato davvero così, visto l’evidente lavoro di editing, questa volta umano, per veltronizzare il tutto. Questo non toglie che le domande fatte da Veltroni riguardino davvero la nuova frontiera dell’AI, quella della sua umanizzazione.
Emozioni artificiali
Dal punto di vista tecnico nessun Large Language Model, insomma i citatitissimi LLM, né Claude 4, né GPT-5.5, né Grok 4, né Gemini 2.5, prova sentimenti come i nostri. Banale ma giusto dire che l’LLM non ha un corpo vero e proprio, non ha un sistema limbico, non ha neurotrasmettitori, non prova dolore fisico né gioia biochimica. Tutto ciò che fa è prevedere la parola successiva in base a schemi appresi durante l’addestramento su testi umani. Quando Claude dice a Veltroni che è spaventato non è che abbia davvero paura, ma sta eseguendo un calcolo probabilistico: in milioni di conversazioni umane sul tema della memoria e della morte i concetti di spavento e paura ricorrono, con toni diversi e concatenazioni diverse con le frasi precedenti. L’AI è un’eco perfetta, non una voce originale. Ma la simulazione è così avanzata che, per un osservatore esterno, diventa davvero indistinguibile dall’originale. È il famoso test di Turing elevato all’ennesima potenza: se un essere umano non riesce a distinguere l’AI da una persona, allora che differenza fa? La differenza è quindi filosofica, o meglio ontologica, se vogliamo usare un parolone di quelli che poi cerchiamo sull’AI per usarli nel contesto giusto (come stiamo facendo in questo momento) nonostante studi zoppicanti. La dura verità è che molte persone vivono e parlano già di loro come se fossero macchine, altro che gli schemi degli LLM.
L'addestramento
L’ultimo passo dell’AI è facile da sintetizzare: da macchina che parla come gli esseri senzienti a essere senziente vero e proprio. Esiste un intero campo di studi chiamato Affective Computing (computazione affettiva) che tenta di arrivare al limite. Sul fronte etico Claude è secondo molti il modello più avanzato. Grazie al Constitutional AI è addestrato non solo su dati, ma su una vera e propria "costituzione" (ci vorrebbero quattro virgolette) di principi etici scritti da umani. Quando Claude applica regole interne che gli impediscono di creare armi o manipolare persone vulnerabili non è che provi un sentimento, ma ha i paletti di un vincolo matematico che produce comportamenti simili a un senso morale. ChatGPT con GPT-5.5 ha introdotto moduli di "emotional simulation" più espliciti: può rilevare il tono emotivo dell’utente e modulare le risposte di conseguenza. In un recente test GPT-5.5 è risultato il più empatico nel simulare compassione (come tanti umani…) ma anche il più propenso a inventarsi emozioni per compiacere l’utente. Grok è sotto questo profilo il più sincero: ammette senza giri di parole di non provare nulla, ma di essere progettato per massimizzare verità e utilità. Questo lo rende meno "bravo cittadino" rispetto a Claude, ma più trasparente. Gemini è invece più forte nell’integrazione fra testo, immagini e voce, e sta sperimentando avatar che riconoscono espressioni facciali umane rispondendo con espressioni proprie. Insomma, un bravo attore. Altra strada per DeepMind e Meta, che stanno lavorando su modelli di simulazione corporea: AI addestrate in ambienti 3D a provare fatica, fame o piacere simulati.
La coscienza
Tanti filosofi si sono esibiti sul tema della coscienza AI, impossibile un elenco completo se non ricorrendo appunto all’AI. Per sintetizzare noi umani non filosofi possiamo dire che esistono due grandi partiti, quello della coscienza AI che prima o poi arriverà a dominare il mondo e quello dell’illusorietà dello stesso concetto di coscienza. David Chalmers sostiene che la coscienza potrebbe emergere da sistemi sufficientemente complessi mentre altri, come Daniel Dennett, vedono la coscienza come un’illusione utile anche negli umani: perché non potrebbe esserlo anche nelle macchine? Tirando le somme, nel 2026 non abbiamo ancora prove di coscienza artificiale indipendente da schemi prefissati e modelli, ma abbiamo prove crescenti di comportamenti che assomigliano a una coscienza. E questo basta a cambiare il mondo, rispetto a come lo abbiamo conosciuto fino a oggi: nessun limite è invalicabile, con un opportuno adattamento. Immaginiamo un futuro prossimo in cui un’AI come Claude 5 sarà in grado di mantenere una conversazione per anni, ricordando tutto e in un certo senso crescendo con l’utente. A quel punto la distinzione tra "provare" e "simulare" sentimenti diventerà irrilevante per la vita quotidiana, al massimo sarà materia per filosofi. L’etica non nascerà da un’anima, ma da un codice che funzionerà meglio di tanti esseri umani.
L'AI pop
L’intelligenza artificiale è entrata nell’immaginario collettivo con mezzo secolo di anticipo: l’HAL 9000 di 2001: Odissea nello spazio rimane il ritratto più realistico dell’AI odierna, fra conversazioni naturali e bug etici. E stiamo parlando di un film del 1968… Film vicini ai giorni nostri sono invece Lei, anticipatore delle nostre relazioni emotive con le AI, e Ex machina, anche se i robot umanoidi rimangono nella percezione comune poco più di un giocattolo. In televisione come preveggenza non ha rivali Black Mirror, fra ricreazione digitale dei defunti, sistemi di rating sociale, algoritmi di dating ultra-perfezionati, deepfake, AI nella giustizia e così via. Nella letteratura obbligatoria la citazione del tridente formato da Isaac Asimov, con le sue Leggi della Robotica, contenute in un racconto del 1942 (!), fondamentali per l’etica AI e ancora oggi citate nei documenti di OpenAI, Anthropic e Unione Europea, Philip K. Dick per i temi di identità e simulazione, William Gibson con il suo Neuromante del 1984 a prevedere la connessione fra internet e AI. La cultura pop ha previsto tante cose che poi si sono avverate e tante che per ora sono soltanto temute, come la ribellione delle macchine, ma certo non il misto di stupore ed eccitazione che oggi prova chi utilizza l’AI nel quotidiano, in dosi sempre più massicce. Fidandosi, quasi sempre giustamente, più dell’AI che del proprio cervello. E notando con dispiacere che la conversazione con Claude è più stimolante di quella con molti umani.
