Il caso

Quando ChatGPT diventa il miglior amico dei giovani

Da uno studio condotto in Inghilterra e Galles emerge che circa il 40% dei ragazzi dai 13 ai 17 anni si rivolge ai chatbot di AI per ricevere sostegno psicologico, dal momento che forniscono risposte immediate e infondono un maggior senso di sicurezza e protezione
© Shutterstock
Red. Online
09.12.2025 15:47

«È come un amico». È con queste parole che alcuni adolescenti inglesi hanno descritto il loro rapporto con ChatGPT. L'intelligenza artificiale, per i giovani, si sta infatti rivelando un alleato importante nell'affrontare situazioni dolorose. Come ha confidato Shan (nome fittizio) al Guardian: una ragazza 18.enne, che dopo la morte di due amici - uno ucciso con un colpo di pistola e un alto accoltellato - ha chiesto aiuto a ChatGPT per stare meglio. Prima di interpellare l'intelligenza artificiale aveva provato ad andare da uno psicologo, ma la «chat», che lui identifica come la sua «amica AI» le sembrava «più sicura, meno intimidatoria» e, soprattutto, «più disponibile a gestire il trauma causato dalla morte dei suoi giovani amici».  

Quello di Shan, tuttavia, non è un caso isolato. Secondo le cifre riportate dal Guardian, infatti, circa il 40% dei ragazzi dai 13 ai 17 anni, in Inghilterra e Galles, si rivolgono ai chatbot di intelligenza artificiale per ricevere sostegno psicologico. Dati, questi, raccolti in una ricerca condotta dallo Youth Endowment Fund su oltre 11.000 giovani, che evidenzia come sia le vittime che gli autori di violenza siano più propensi a utilizzare l'intelligenza artificiale per ricevere sostegno, rispetto agli altri adolescenti.  

Questi dati non passano inosservati. Anzi, hanno acceso preoccupazioni circa il bisogno dei bambini di essere aiutati «da un umano e non da un bot». Ma non solo. I risultati dell'indagine suggeriscono anche i chatbot stiano aiutando a colmare la grande domanda relativa ai servizi di salute mentale. Nel Regno Unito, infatti, le liste d'attesa per ricevere una visita da uno psicologo sono molto lunghe e per alcuni giovani questo si traduce in «mancanza di empatia». Inoltre, la «presunta privacy dei chatbot» è un altro fattore chiave che ne determina l'utilizzo da parte delle giovani vittime o dagli autori di reati. 

«Mi sembra proprio un amico», ha dichiarato, a tal proposito, Shan, la giovane intervista dal Guardian, spiegando che parlare con ChatGPT della morte dei suoi amici le sembra «meno intimidatorio, più privato e meno critico», rispetto a quella che è stata la sua esperienza con il il servizio sanitario nazionale convenzionale e il sostegno alla salute mentale offerto da enti di beneficenza. «Più gli parli come a un amico, più lui ti risponderà come un amico», ha spiegato ancora la ragazza, dichiarando di rivolgersi all'intelligenza artificiale chiamandola «migliore amica» e sentendosi definire alla stessa maniera dal chatbot.

Secondo lo studio, come anticipato, nell'ultimo anno circa un quarto dei ragazzi tra i 13 e i 17 anni ha utilizzato un chatbot basato sull'intelligenza artificiale per ricevere supporto per la salute mentale. Gli adolescenti, inoltre, sembrano più propensi a cercare supporto online, anche con l'uso dell'intelligenza artificiale, quando si trovano in lista d'attesa per cure o diagnosi, o anche quando stanno già ricevendo supporto umano. 

Sempre secondo Shan, un altro punto a favore dell'intelligenza artificiale è quello di essere «accessibile 24 ore su 24, 7 giorni su 7». Ma anche quello di non rivelare a genitori o insegnanti i suoi segreti. Un vantaggio non da poco, secondo l'adolescente, rispetto a quelli derivanti dal parlare con uno psicologo scolastico. Allo stesso modo, come emerge dai dati dell'indagine, anche i ragazzi coinvolti in attività di gang si sentono più sicuri nel rivolgersi ai chatbot, rispetto al chiedere aiuto a un genitore o a un insegnante. 

Secondo un altro giovane interpellato dal Guardian, i benefici non finiscono qui. A suo dire, infatti, l'attuale sistema di supporto psicologico, in Inghilterra, è inefficiente nell'offrire aiuto ai giovani. Diversamente, «i chatbot forniscono risposte immediate» e, di conseguenza, non si deve attendere per giorni una risposta, ma solo pochi secondi. Un altro, enorme, punto a favore dell'intelligenza artificiale, secondo gli adolescenti inglesi. 

Tra gli adulti, però, questa situazione viene vista con occhio critico. Jon Yates, amministratore delegato dello Youth Endowment Fund, che ha commissionato la ricerca, ha sottolineato che «troppi giovani stanno lottando con la loro salute mentale e non riescono a ottenere il sostegno di cui hanno bisogno». Secondo Yates, insomma, non sorprende che alcuni si rivolgano alla tecnologia per chiedere aiuto. Ciononostante è necessario «fare di meglio per i propri figli, specialmente per quelli più a rischio. Hanno bisogno di un essere umano, non di un bot». 

Il rischio, secondo gli esperti, è maggiore quando i bambini interagiscono con l'intelligenza artificiale per lunghi periodi di tempo. Basti pensare che OpenAI, la società statunitense che ha creato ChatGPT, sta affrontando diverse cause legali, tra cui quelle intentate dalle famiglie di giovani che si sono suicidati dopo lunghe interazioni. OpenAI, relativamente al suicidio del 16.enne californiano Adam Raine, ha negato che la causa fosse il chatbot. Al contrario, ha dichiarato di aver migliorato la propria tecnologia «per riconoscere e rispondere ai segni di disagio mentale o emotivo, allentare la tensione nelle conversazioni e guidare le persone verso un sostegno nel mondo reale». Motivo per cui, a settembre, la startup ha dichiarato che potrebbe iniziare a contattare le autorità nei casi in cui gli utenti inizino a parlare seriamente di suicidio.