AI e viaggi

Quando ChatGPT ti suggerisce di visitare un luogo che non esiste

Sempre più persone si appoggiano all'intelligenza artificiale per organizzare itinerari e vacanze: in alcuni casi, però, si ricevono consigli poco accurati o del tutto sbagliati, che possono portare anche a situazioni pericolose
© Shutterstock
Red. Online
02.10.2025 14:15

Viaggiare significa vivere avventure fantastiche. Ma programmare un itinerario, a volte, può essere una vera e propria impresa. Motivo per cui, ormai sempre più spesso, le persone si affidano all'intelligenza artificiale per organizzare le proprie vacanze. Basta poco: una semplice richiesta a ChatGPT, per esempio, può aiutare a pianificare un viaggio indimenticabile. Il problema, però, è che l'intelligenza artificiale spesso non è precisa. Anzi, può dare consigli tutt'altro che utili, anche quando si parla di vacanze.  

A sollevare la questione, in un lungo articolo, è la BBC, che ha collezionato alcune esperienze poco piacevoli vissute da alcuni viaggiatori che avevano programmato il loro itinerario seguendo le indicazioni fornite dall'AI. Per esempio, un uomo ha raccontato di essersi imbattuto, durante un trekking in Perù, in due turisti che stavano pianificando un'escursione verso il «Sacro Canyon di Humantay». Uno dei «luoghi imperdibili» consigliati da ChatGPT che, tuttavia, non esiste. «Mi hanno mostrato lo screenshot, scritto con sicurezza e pieno di aggettivi brillanti, ma non c'era niente di vero in tutto ciò», ha dichiarato alla BBC, spiegando che il nome della fantomatica località era, verosimilmente, una combinazione tra due luoghi che, tuttavia, non avevano nulla a che vedere con la descrizione fornita dall'intelligenza artificiale. I due turisti, insomma, si stavano avventurando su una strada rurale, senza guida, per raggiungere un luogo inesistente. Un errore apparentemente innocente di ChatGPT che avrebbe potuto avere risvolti molto pericolosi. Soprattutto in un Pese come il Perù, dove l'altitudine e il cambiamento delle temperature potrebbero mettere a dura prova i visitatori. 

Ma questo è solo un esempio. Sempre nell'articolo della BBC è stata riportata anche la testimonianza di una coppia che, a inizio anno, ha usato ChatGPT per pianificare un'escursione sulla cima del Monte Misen, sull'isola giapponese di Itsukushima. Dopo aver esplorato la città di Miyajima senza intoppi, i due sono partiti verso le 15:00 per raggiungere la cima della montagna, dalla quale hanno ammirato un bellissimo tramonto, come suggerito proprio dall'intelligenza artificiale. Peccato, però, che non tutti i consigli offerti si sono rilevati altrettanto utili. ChatGPT, infatti, aveva consigliato alla coppia di tornare indietro con la funivia alle 17:30, orario dell'ultima corsa. Ma solo secondo l'intelligenza artificiale. Arrivati in tempo per salire sull'ultima cabina, i due si sono resi conto che la funivia era già chiusa. I due, dunque, sono rimasti bloccati in cima alla montagna. 

Sempre la BBC, un anno fa, aveva raccontato di problemi simili con l'utilizzo di Layla, «un agente di viaggio e un pianificatore di viaggi basato sull'intelligenza artificiale» che crea itinerari personalizzati e completi per i viaggiatori. In alcuni casi, però, poco precisi. Nel 2024, infatti, Layla aveva informato gli utenti della presenza di una torre Eiffel a Pechino e aveva suggerito a un viaggiatore britannico di seguire un percorso maratona attraverso il nord Italia che, in realtà, era del tutto «irrealizzabile». 

Non è una novità, insomma, che ChatGPT o altre AI suggeriscano agli utenti di spostarsi seguendo itinerari poco logici a livello di tempistiche, che li portano da un capo all'altro del Paese che stanno visitando, senza ottimizzare i tempi. In altri casi ancora, i consigli sbagliati possono riguardare i tempi di percorrenza indicati per raggiungere una destinazione, o l'apertura e chiusura di strade, musei e siti di altro tipo. «L'AI non conosce la differenza tra consigli di viaggio, indicazioni stradali o ricette», ha spiegato alla BBC Rayid Ghani, professore di machine learning alla Carnegie Melon University. Il modo in cui questi programmi ottengono le informazioni non permettono loro di «dire sempre la verità». «Piattaforme come ChatGPT conoscono solo le parole. Quindi continuano a sfornarne, rendendo realistico qualunque cosa dicano».

 I modelli linguistici di grandi dimensioni come ChatGPT, infatti, funzionano utilizzando enormi raccolte di testi e mettendo insieme parole e frasi che, statisticamente, sembrano risposte appropriate. Per questa ragione, in alcuni casi si ottengono informazioni precise e accurate, in altri invece si assiste a ciò che gli esperti chiamano «allucinazione». Detto in altre parole, capita che questi strumenti si inventino, a tutti gli effetti, alcune risposte. Rendendo più difficile, per gli utenti, scoprire che cosa è reale e che cosa, invece, non lo è. Anche nei propri itinerari di viaggio.