Il caso

Se il chatbot diventa il nostro migliore amico

L'intelligenza artificiale ha ormai raggiunto anche il campo psicologico e sociale: in futuro potremmo chiedere sostegno emotivo anche a Siri e Alexa?
© Shutterstock
Red. Online
05.04.2023 09:30

ChatGPT e OpenAI. Da mesi, ormai, non si parla d'altro. Mentre le ultime notizie sull'argomento si dividono tra i pericoli di questi strumenti - su cui concorda persino Elon Musk - e lo stop di ChatGPT in Italia, dal Regno Unito emerge l'ennesima novità legata all'intelligenza artificiale. Questa volta, nel ramo psicologico e sociale. Alzi la mano chi non ha mai desiderato un terapeuta o un amico sotto forma di chatbot. Scherzi a parte, l'idea di alcuni programmatori informatici statunitensi è proprio quella di usare l'intelligenza artificiale per offrire sostegno, aiuto e anche solo compagnia alle persone più bisognose, che potrebbero non avere accesso alle cure con professionisti. Roba da matti, dirà qualcuno. Ma la realtà è che un'applicazione di questo tipo esiste già. E sembrerebbe essere anche piuttosto utilizzata, al punto da aver causato alcuni problemi. Vediamo di cosa si tratta.

Nuovi amici «artificiali»

Immaginiamo di aver avuto una giornata difficile, o di sentirci particolarmente tristi. Rientrati a casa, ci basta parlare ad alta voce, per abilitare Alexa o Siri e raccontare loro la nostra giornata. Chiedendo supporto o, semplicemente sfogandoci. Una novità, rispetto alle classiche domande che poniamo a questi chatbot: «Alexa, riproduci questa canzone. Siri, imposta una sveglia fra venti minuti». Tutt'altra storia. I nuovi studi condotti nel campo, infatti, propongono di utilizzare questi strumenti come veri e propri terapisti o compagni di vita, a cui raccontare la propria vita, i propri pensieri e le difficoltà.

Ma facciamo un passo indietro. Anche se può sembrare incredibile, come anticipato, questa nuova tecnologia esiste ed è una realtà già da tempo. Sebbene si possa pensare che in futuro anche gli strumenti di uso più abituale, come Alexa e Siri, possano vestire i panni di «psicologi», il precursore di questa idea è un'app di nome Replika, nata già nel 2017. Ossia, un chatbot di origine statunitense, fondato dalla programmatrice informatica Eugenia Kyuda, il cui scopo è quello di offrire agli utenti «un compagno che si preoccupa, ed è sempre disponibile ad ascoltare, a parlare e a stare dalla tua parte». Ma non è tutto. La proposta di questa applicazione, infatti, sembrerebbe aver fatto gola a molti. Tant'è che, in sei anni di attività, ha totalizzato più di due milioni di utenti attivi. E c'è di più. Per ognuna delle persone che utilizzano l'app, l'applicazione crea un «replika» unico e irripetibile, basato sulla conversazione avuta tra utente e chatbot. Una sorta di psicologo personale, diverso per ognuno. 

Un toccasana per la salute mentale

Il successo di Replika parla chiaro. L'applicazione, così utilizzata, si è rivelata utile a tante, tantissime persone. Specialmente a coloro che non disponevano dei mezzi necessari per cercare supporto psicologico da un professionista. In particolare, tra i principali utenti si registrano bambini con autismo, ma anche persone che utilizzano l'app per «riscaldarsi» prima di intrattenere una conversazione con qualcuno. Tra questi, anche molti che scaricano Replika per esercitarsi prima di un colloquio di lavoro, o per parlare di politica. 

Non stupisce, quindi, il suo successo. Da applicazione nata per fare compagnia a strumento per migliorare la salute mentale, il passo sembrerebbe essere stato molto breve. I suoi fondatori sostengono infatti che, a mano a mano, l'app sia diventata un ottimo rimedio per «costruire abitudini migliori e ridurre l'ansia». 

Dov'è il limite?

Fin qui, tutto bene. L'applicazione, ormai utilizzata da diversi anni, sembrerebbe funzionare e riuscire a portare sollievo a tante persone. L'inghippo, però, è presto rivelato. Secondo quanto riporta la BBC, nel mese di febbraio sarebbero emersi dettagli preoccupanti in merito all'utilizzo di Replika. Dettagli che avrebbero fatto crollare le certezze costruite fino ad ora sull'applicazione. Nel corso degli scorsi mesi, infatti, è stato rivelato che alcuni utenti avrebbero avuto conversazioni esplicite con il proprio chatbot. La notizia è stata divulgata da Luka (l'azienda che sta dietro a Replika, ndr), dopo aver aggiornato il suo sistema di intelligenza artificiale proprio per impedire che si verificassero nuovamente scambi di messaggi sessuali tra utente e chatbot. 

Incredibile ma vero, non tutti sono rimasti soddisfatti da questo cambiamento. «Le persone che avevano trovato un rifugio dalla solitudine, la guarigione attraverso l'intimità, hanno improvvisamente scoperto che era tutto artificiale. E non perché ci fosse dietro un'intelligenza artificiale, ma piuttosto perché era controllata da persone in carne e ossa», ha commentato un internauta su Reddit, esprimendo il disappunto. 

Ma non è tutto. L'Italia, oltre ad aver promosso uno stop a ChatGPT, avrebbe parzialmente bloccato anche questo tipo di strumento, contribuendo al cambiamento delle linee guide di Replika. Nello specifico, già a febbraio l'agenzia italiana per la protezione dei dati personali aveva vietato di utilizzare i dati personali dei suoi cittadini, sostenendo che l'applicazione in questione fosse utilizzata da utenti minorenni che ricevevano «risposte assolutamente inappropriate per la loro età». Di più, secondo l'Agenzia, l'app avrebbe potuto aumentare i rischi per gli individui ancora in fase di sviluppo o in uno stato di fragilità emotiva. Motivo per cui, attualmente, nel Belpaese l'applicazione potrebbe effettivamente venire limitata.

Professionisti imbattibili

Nonostante alcuni incidenti di percorso, però, Replika sembra funzionare. Ragione per cui, il dibattito sull'ampliare i servizi e le tecnologie di questo genere si fa giorno dopo giorno più concreto. Secondo l'Organizazzione Mondiale della Sanità (OMS), nel mondo ci sono infatti quasi un miliardo di persone con un disturbo mentale. L'equivalente di una persona su 10, tra le quali - aggiunge sempre l'OMS - solo una piccola parte avrebbe accesso a cure mentali «efficaci e di qualità». Questo, tuttavia, è solo il primo passo. Secondo i medici, difficilmente un chatbot riuscirà mai a offrire lo stesso sostegno di un terapista reale. Per ora, però, le basi per riuscire a donare un minimo di sollievo, sembrerebbero essere state poste. 

In questo articolo: