Ícone do site Jornal O Sul

Os perigos de deixar que a Inteligência Artificial organize sua próxima viagem

Os turistas que usam a IA para criar itinerários de viagem precisam ficar vigilantes e verificar todas as informações antes da partida. (Foto: Reprodução)

O fundador e diretor da empresa Evolution Treks Peru, Miguel Ángel Gongora Meza, se preparava para uma caminhada através dos Andes em uma cidade no interior do Peru, quando ouviu uma conversa curiosa.

Dois turistas não acompanhados conversavam amigavelmente sobre seus planos de caminhar sozinhos nas montanhas, até o “Cânion Sagrado de Humantay”.

“Eles me mostraram a cópia de tela, redigida de forma convincente e repleta de adjetivos fulgurantes”, conta ele. “Mas não é verdade. O Cânion Sagrado de Humantay não existe!”

“O nome é uma combinação de dois lugares que não têm relação com a descrição. Os turistas pagaram cerca de US$ 160 [cerca de R$ 850] para chegar a uma estrada rural nos arredores de Mollepata [no Departamento peruano de Cusco] sem um guia nem [destino].”

Mais do que isso, Gongora Meza afirma que esse erro aparentemente inocente poderia ter custado a vida dos viajantes. “Este tipo de desinformação é perigoso no Peru”, explica ele.

“A altitude, as mudanças climáticas e a acessibilidade dos caminhos precisam ser planejadas. Quando você [usa] um programa [como o ChatGPT], que combina imagens e nomes para criar uma fantasia, você pode acabar em uma altitude de 4 mil metros, sem oxigênio e sem sinal [telefônico].”

Em poucos anos, ferramentas de inteligência artificial (IA), como o ChatGPT, Microsoft Copilot e Google Gemini, deixaram de ser uma mera novidade para se tornar parte integrante do planejamento de viagens de milhões de pessoas.

Uma pesquisa indica que 30% dos turistas internacionais passaram a usar ferramentas de IA generativa e sites especializados criados por IA, como Wonderplan e Layla, para ajudar a organizar suas viagens.

Estes programas podem oferecer dicas de viagem valiosas quando funcionam adequadamente. Mas também podem induzir as pessoas a situações frustrantes e até perigosas, quando suas informações estão erradas.

Alguns turistas estão aprendendo esta lição quando chegam ao seu destino e descobrem que receberam informações incorretas ou foram direcionados para um lugar que só existe na imaginação cabeada de um robô.

Dana Yao e seu marido vivenciaram recentemente esta situação. Ela é criadora de conteúdo e mantém um blog sobre viagens no Japão.

No início deste ano, o casal usou o ChatGPT para planejar uma caminhada romântica até o topo do monte Misen, na ilha de Itsukushima.

Depois de visitar a cidade de Miyajima sem problemas, eles saíram às 15 horas para subir até o pico da montanha a tempo para o pôr do sol, exatamente como instruiu o ChatGPT.

“Foi aí que surgiram os problemas”, conta Yao, “quando estávamos prontos para descer [a montanha] de teleférico.” “O ChatGPT disse que o último teleférico descia às 17h30, mas, na verdade, ele já estava fechado. Por isso, ficamos presos no topo da montanha.”

Segundo uma pesquisa realizada em 2024, 37% das pessoas pesquisadas que usaram IA para ajudar a planejar suas viagens relataram que ela não conseguia fornecer informações suficientes, enquanto cerca de 33% afirmaram que as recomendações geradas por IA incluíram informações falsas.

Estas questões decorrem da forma de geração das respostas pela IA. Os grandes modelos de linguagem, como o ChatGPT, trabalham analisando imensas coleções de textos e reunindo palavras e frases que, estatisticamente, parecem respostas apropriadas.

Às vezes, este processo gera informações perfeitas e precisas. Mas, em outras ocasiões, você recebe o que os especialistas em IA chamam de “alucinação” — as ferramentas simplesmente inventam coisas.

Mas, como os programas de IA apresentam alucinações e respostas factuais da mesma forma, muitas vezes é difícil para os usuários diferenciar o que é real e o que não é.

Vigilância e regulamentação

Existem atualmente tentativas de regulamentar como a IA apresenta suas informações aos usuários. Diversas propostas, da União Europeia e dos Estados Unidos, pretendem estabelecer a inclusão de marcas d’água ou outros sinais indicadores, que permitam aos observadores saber quando algo foi alterado ou gerado por IA.

Mas Rayid Ghani acredita que esta seja uma batalha difícil. “Existe muito trabalho por aí em relação à desinformação. Como detectá-la? Como ajudar as pessoas [a identificá-la]? Hoje em dia, a mitigação é uma solução mais confiável do que a prevenção.”

Se estas regulamentações forem aprovadas, os viajantes poderão identificar vídeos ou imagens geradas por IA com mais facilidade. Mas as novas regras provavelmente não irão ajudar quando um chatbot de IA inventar algo no meio da conversa.

Os especialistas — incluindo o CEO (diretor-executivo) da Google, Sundar Pichai — alertam que as alucinações podem ser uma “característica inerente” dos grandes modelos de linguagem, como o ChatGPT ou o Gemini da Google.

Por isso, se você for usar IA, a única forma de se proteger é permanecer vigilante. Uma sugestão de Ghani é ser o mais específico possível nas suas consultas e verificar absolutamente tudo.

Ele reconhece que o turismo traz dificuldades específicas em relação a este método, pois os viajantes, muitas vezes, fazem perguntas sobre destinos que eles não conhecem. Mas, se uma ferramenta de IA oferecer uma sugestão de viagem que pareça perfeita demais, desconfie.

Ghani conclui destacando que o tempo gasto para verificar as informações geradas por IA, em alguns casos, pode tornar o processo tão trabalhoso quanto planejar a viagem pelos métodos antigos.

Para Javier Labourt, o segredo para viajar bem, com ou sem IA, é manter a mente aberta e se adaptar quando as coisas dão errado.

“Tente afastar a decepção por ter sido enganado por alguém”, sugere ele. “Se você já estiver ali, como irá resolver? Você já está fazendo uma viagem incrível, sabe?”

Sair da versão mobile