Sorgenti termali inventate e siti sacri fantasma: quando l’IA guida i viaggiatori verso il nulla e il turismo ne paga il prezzo.
Cercavano relax, silenzio, acqua calda. Hanno trovato freddo, strada sterrata e un fiume gelido. È uno dei paradossi più evidenti del turismo 2026: l’intelligenza artificiale promette di semplificare i viaggi, ma sempre più spesso accompagna i viaggiatori verso luoghi che non esistono. Non mete sopravvalutate o raccontate male. Proprio luoghi inventati.

Da anni si ripete che l’IA rivoluzionerà il modo di pianificare le vacanze. Ed è vero, in parte. Ma la rivoluzione, quando corre più veloce dei controlli, lascia macerie curiose. L’ultimo caso arriva dalla Tasmania, dove un tour operator ha pubblicato — e poi rimosso — un articolo che invitava a scoprire le presunte Weldborough Hot Springs, presentate come una delle “7 migliori esperienze termali dell’isola”. Peccato che a Weldborough non ci siano mai state sorgenti termali. Né oggi, né ieri (né domani, ça va sans dire).
Il risultato è stato quasi surreale. Viaggiatori arrivati da lontano, deviazioni studiate con cura, aspettative alte. E poi la scoperta: nessuna piscina naturale, nessun vapore nell’aria. Solo un fiume freddissimo. “Se trovate le sorgenti termali, tornate a dirmelo e vi offrirò birre tutta la notte”, ha raccontato con ironia la proprietaria di un pub locale a una tv australiana. Nessuno è tornato.
Il dettaglio che colpisce non è solo l’errore, ma la sua credibilità iniziale. Nell’articolo, le terme inesistenti erano affiancate a siti reali, mescolate con descrizioni plausibili, dati climatici corretti, toni da guida esperta. Un collage perfetto. Troppo perfetto. È così che l’IA inganna: non inventando mondi fantastici, ma inserendo una bugia ordinaria dentro un contesto credibile.
Il tour operator ha spiegato di aver esternalizzato il marketing a una società che utilizzava strumenti di intelligenza artificiale. I contenuti, in teoria, venivano sempre revisionati. In pratica, qualcuno è passato online “per errore”. Un errore costato caro in termini di reputazione. “La nostra IA ha combinato un pasticcio totale”, ha ammesso il titolare. Una frase che suona già familiare.
L’IA che frega chi viaggia: i casi sono molteplici (e surreali)
Perché non è un caso isolato. Negli ultimi mesi sono emerse storie simili in altre parti del mondo. Turisti partiti per raggiungere canyon sacri mai esistiti, escursioni romantiche pianificate al tramonto con orari sbagliati, funivie chiuse da ore. In un episodio raccontato dai media britannici, due viaggiatori in Perù avevano pagato oltre cento euro per raggiungere una strada rurale senza meta, convinti di essere diretti verso un luogo “mistico” suggerito da un assistente virtuale.
Il problema non è l’uso dell’IA in sé. Nel turismo, come in altri settori, è ormai uno strumento diffuso: serve a scrivere descrizioni, suggerire itinerari, ottimizzare i contenuti. Il punto è un altro: l’IA non verifica, rimescola. Se attinge a fonti sbagliate, incomplete o semplicemente fantasiose, le restituisce con sicurezza assoluta. Ed è proprio quella sicurezza a trarre in inganno.
Per i viaggiatori, la lezione è semplice e scomoda: l’IA può aiutare, ma non va seguita alla cieca. Una destinazione che sembra perfetta merita sempre un controllo incrociato. Per gli operatori turistici, invece, il rischio è più profondo. Affidarsi a contenuti automatici senza una revisione reale significa giocare con la fiducia. E nel turismo, la fiducia è tutto.
Così, mentre le macchine promettono di portarci ovunque, sempre più persone finiscono a cercare il nulla. Con una mappa perfetta in mano e nessun luogo davanti agli occhi.





