Le emozioni dentro l'algoritmo

Si chiamano «AI companion», sono chatbot fondati sull’intelligenza artificiale (IA) e - in lontananza - si può già iniziare a udire il campanello d’allarme. Cresce infatti il numero di persone - anche adolescenti - che ricorrono a queste applicazioni per conversare, ricevere consigli (anche in ambito psicologico) e avere interazioni amichevoli o romantiche.
Replika, Character.AI, Nomi, ma anche i più noti ChatGPT e Perplexity AI: sono sempre più numerosi i chatbot (anche con sembianze umane) che offrono questo genere di esperienze. Non senza pericoli. A lanciare l’allarme è la consigliera nazionale Isabelle Chappuis (Centro/VD), che lo scorso dicembre ha depositato una mozione dal titolo chiaro: «Il tuo chatbot non è tuo amico. Disantropomorfizzazione degli agenti conversazionali».
Manipolazione psicologica
Per la consigliera nazionale, questi chatbot incoraggiano l’attaccamento emotivo, ad esempio attraverso l’uso della prima persona singolare, ma anche tramite «espressioni di empatia o ammirazione, lusinghe, utilizzo di informazioni personali e simulazione di una personalità costante».
L’obiettivo? Massimizzare la fedeltà degli utenti, ma con molteplici rischi collaterali come dipendenza affettiva, manipolazione psicologica e confusione tra interazione umana e artificiale. «Quando sviluppa una relazione affettiva con un chatbot, l’utente tende ad abbassare la guardia e a condividere in misura maggiore informazioni personali, il che aumenta ulteriormente il potere manipolativo di questi sistemi», avvisa Chappuis.
Il caso negli USA
Negli Stati Uniti, il problema è salito alla ribalta dopo due casi di suicidio tra giovanissimi. Nel 2014, un 14.enne di Orlando (Florida) si è tolto la vita: per la madre, l’adolescente aveva utilizzato un chatbot di Character.AI in modo ossessivo prima della sua morte. Pertanto, la donna ha deciso di fare causa all’app, con l’accusa di negligenza, morte ingiusta e pratiche commerciali ingannevoli. In California, lo scorso anno, a togliersi la vita è stato un 16.enne. Sullo smartphone del figlio i genitori hanno trovato i registri delle conversazioni avute dal giovane con ChatGPT: oltre tremila pagine. Anche in questo caso, la famiglia ha sporto denuncia contro la società (OpenAI).
Che fare?
«Le stesse tecnologie sono accessibili anche in Svizzera», ricorda nel testo della mozione Isabelle Chappuis, aggiungendo che «non occorre attendere i primi drammi sul nostro territorio per agire».
Cosa fare, dunque? Una prima misura potrebbe già essere quella di obbligare queste app a creare una distanza tra utente e chatbot: «L’uso del plurale (“esaminiamo”) al posto del singolare (“penso”), il divieto di espressioni di attaccamento o lusinga, l’adozione di avatar chiaramente non umani», propone la deputata del Centro, secondo cui tali approcci sono semplici, efficaci e tecnicamente realizzabili.
Il Governo dice no
Il Consiglio federale, che lo scorso mercoledì ha preso posizione sul tema, «condivide la preoccupazione all’origine della mozione», ma invita il Parlamento a respingere l’atto parlamentare. L’Esecutivo ricorda che entro fine 2026 verrà presentato un avamprogetto per la regolamentazione dell’intelligenza artificiale con un approccio «proporzionato e incentrato sui rischi», non su misure normative che disciplinino l’impostazione degli agenti conversazionali destinati al mercato svizzero.
Il Consiglio federale «ritiene quindi opportuno esaminare in via prioritaria e in maniera approfondita approcci graduali, che tengano conto dell’uso, dei destinatari e del livello di rischio, piuttosto che divieti generali». Non vuole dunque una regolamentazione incentrata sui prodotti, come ad esempio quella prevista del regolamento sull’IA dell’Unione europea.
Segnalazioni trasparenti
Limitare le caratteristiche antropomorfiche dei chatbot, per il Consiglio federale, non è la strada giusta. E questo poiché «le misure avrebbero un impatto sugli strumenti sviluppati specificamente per essere utilizzati nel quadro di un trattamento psicoterapeutico convenzionale, limitando così lo sviluppo di soluzioni innovative nell’ambito della salute mentale (vedi articolo in basso).
Ci sono però altre possibili vie da percorrere: negli Stati Uniti, lo scorso dicembre, un gruppo di procuratori generali ha inviato una lettera alle principali aziende di intelligenza artificiale, chiedendo misure di sicurezza più stringenti per evitare gli effetti dannosi dei chatbot. Ad esempio, suggerendo a chi sviluppa le IA di trattare chi ha problemi di salute mentale allo stesso modo in cui le aziende tecnologiche gestiscono le violazioni di sicurezza informatica, ovvero con politiche e procedure di segnalazione chiare e trasparenti.
«Sembra che mi capisca»
«I chatbot per conversare e utilizzati per ottenere consigli sulla salute mentale sono una realtà che sta prendendo piede un po’ tutto il mondo, ma penso che vada fatta una distinzione in merito all’utilizzo che se ne fa: un chatbot, per quanto possa sembrare umanoide, rimane uno strumento. Diventa un fattore di rischio quando c'è un eccesso nell’utilizzo: è sintomo di un malessere più ampio», ci spiega Gabriele Barone, psicologo ed esperto di problematiche legate al mondo digitale. Il problema non riguarda dunque solo i giovani, ma le persone più fragili e vulnerabili della società. «Se una persona riduce le relazioni sociali per favorire quelle digitali, la domanda che ci si dovrebbe porre è “cosa porta un ragazzo a fare questo tipo di scelta?”».
«La tendenza - continua Barone - è quella di dire “sembra che mi capisca”, oltre all’accessibilità in ogni momento e alla sensazione di sentirsi meno giudicati. Ma i chatbot basati sull’intelligenza artificiale funzionano così. Comparano i dati raccolti e mi restituiscono le parole che, secondo l’IA, è più probabile che io voglia sentirmi dire».
Gli avvisi
Barone, dal canto suo, accoglie favorevolmente le possibili contromisure per almeno ridurre il rischio di cadere nella trappola della dipendenza affettiva nei confronti di un chatbot. «Penso in particolare all’inserimento di messaggi o avvisi che aiutino il confronto con la realtà. Le IA dovrebbe ad esempio ricordare all’utente che le risposte si basano su algoritmi. Questi metodi aiutano a creare una distanza».
La consigliera nazionale Isabelle Chappuis, dal canto suo, auspica «una risposta legislativa forte e rapida». A suo avviso, «non si può chiedere ai cittadini di resistere da soli a tecnologie concepite espressamente per creare un attaccamento emotivo».
