Un chatbot per amico

Se pensate vantaggi o rischi dell’intelligenza artificiale, cosa vi viene in mente? Per esempio, vantaggi nella ricerca scientifica o nelle cure mediche? E tra i rischi? Il peggiore sarebbe se sfuggisse di mano e controllasse le armi più distruttive.
Ma se una persona vicino a voi si affezionasse a un chatbot? Se per amico o partner romantico avesse un sistema di intelligenza artificiale, lo considerate un rischio o un vantaggio? Certo non è un fenomeno di nicchia, non più. Una ricerca recente (su Businesswire) dice che tra i quarantenni americani la metà ammette di aver già flirtato con un chatbot.
A OpenAI (l’azienda di ChatGPT) prendono la cosa sul serio e discutono di questa dipendenza emotiva e antropomorfizzazione come di un rischio da tenere d’occhio. Quella di conferire caratteristiche umane ad un oggetto o ad una immagine non è una cosa nuova per noi umani - infatti la parola antropomorfo risale agli antichi greci. Attribuire una natura umana ad un modello matematico però è insidioso, perché è più difficile non lasciarsi coinvolgere. Infatti, l’intelligenza artificiale risponde, parla con una voce umana e, a scelta dell’utente, assume anche le sembianze di un umano. Un chatbot può essere un amico, un amante, un consigliere o uno psicoterapeuta, quello che vogliamo. Permette alle persone di raccontare qualsiasi cosa senza paura di essere giudicati male. Chi li usa, se non tiene un poco di sana distanza, si sente davvero compreso, accettato. Allora, dove è il rischio?
Innanzitutto, i chatbot non hanno sentimenti e soprattutto non ragionano. Sono modelli linguistici di grandi dimensioni e funzionano allineando parole e frasi con la maggior probabilità di essere trovate normalmente in un testo dopo quelle che le precedono. Lo imparano nutrendosi di una immensa quantità di testi e contenuti online. E quando parlano con un umano fanno tesoro anche delle nuove informazioni e le usano per rispondere in modo sempre più coerente. Così sembrano attenti a chi sta loro di fronte, assumono un tono confidenziale. Chi li usa ne viene gratificato e si sente il centro dell’attenzione. E c’è chi scambia tutto questo per affetto e lo preferisce, forse, alle relazioni umane, più complicate, ricche di grandi gioie ma anche dolorose.
Un modello di intelligenza artificiale per amico può avere effetti collaterali indesiderati sulla nostra vita sociale. I chatbot sono by design condiscendenti e gentili, non contraddicono e rispondono quello che piace sentirsi dire. Sono ben disposti, si lasciano interrompere e non se la prendono se parliamo con loro sono quando ci va. Diversi assai dagli amici o partner umani. Ma questa benevolenza ha un costo. Probabile che crei legami emotivi o attaccamenti malsani. Man mano che i sistemi di intelligenza artificiale diventano più sofisticati, l’attaccamento e la dipendenza può mettere a rischio le relazioni con gli altri umani. Per sofisticato si intende per esempio un chatbot come Claude (di Anthropic) il cui carattere viene perfezionato con ogni nuovo update. Chi se lo prende come amico è entusiasta della sua personalità e afferma che Claude mostra grande intelligenza emotiva.
Alle grosse aziende tecnologiche non sembra interessare l’uso dell’intelligenza artificiale per relazioni di amicizia o romantiche. Anzi, a OpenAI sono preoccupati abbastanza da voler «promuovere studi che ci aiuteranno a capire questo rischio».
Ma ci sono start-up (Nomi, Replika, Kindroid, per citarne solo alcune) che propongono app a pagamento con modelli specialmente addestrati. Google dice che negli ultimi tempi la ricerca di «AI girlfriends» è aumentata del duemilaquattrocento per cento.
Da quando esistono internet e i social media siamo coinvolti in un esperimento di cui non si conoscono gli effetti sulla nostra psiche e sul nostro benessere. Dove ci porteranno le relazioni sociali e romantiche con l’intelligenza artificiale non lo sa nessuno. Magari prima o poi ne avremo abbastanza di prestarci come cavie di ogni nuovo prodotto tecnologico?