Turismo

Inteligência artificial pode aumentar o medo de viajar

Um estudo aponta os impactos negativos da IA no turismo, destacando como ela pode criar uma percepção distorcida, efeito que se reflete em diversos outros aspectos da vida

Abril 5, 2026

A IA influencia a percepção do mundo. Crédito: DC Studio, Freepik

O que todos já sabemos está agora respaldado por estudos. Conteúdos gerados por inteligência artificial (IA) contribuem para a construção de narrativas de insegurança e podem aumentar o medo, com impacto direto no turismo, revelou um estudo internacional divulgado pela Universidade de Coimbra (UC).

O mesmo foi conduzido por investigadores de Universidades da Índia e do Reino Unido e exploraram como imagens, vídeos e notícias produzidas ou amplificadas por sistemas de IA contribuem para a construção de narrativas de insegurança.

A Universidade de Coimbra adiantou ainda que os conteúdos gerados por IA sobre zonas de conflito “podem afastar turistas”, por aumentarem a ansiedade e a redução da intenção de viajar.

A equipe internacional de investigadores centrou-se nos impactos destes conteúdos no turismo em algumas regiões do Líbano, “por conta do conflito em Gaza.

O estudo concluiu que a exposição aos produtos noticiosos desenvolvidos recorrendo à inteligência artificial “pode levar potenciais visitantes a subestimar os perigos associados ao destino, influenciando negativamente a decisão de viajar”, vincou, citada na nota, a docente da Faculdade de Letras (FLUC) Cláudia Seabra.

“O efeito é particularmente relevante em contextos de elevada incerteza, onde a informação circula rapidamente e nem sempre é devidamente verificada”, afirmou a também investigadora do Centro de Estudos de Geografia e Ordenamento do Território (CEGOT) da UC.

LEIA TAMBÉM De volta à escola off-line

A investigação destacou ainda que “a IA não só reproduz conteúdos existentes, como também pode amplificar tendências sensacionalistas, contribuindo para uma percepção distorcida da realidade”, fazendo com que este fenômeno levante “questões importantes sobre a responsabilidade das plataformas digitais e a necessidade de mecanismos de regulação e literacia midiática”, adiantou Cláudia Seabra.

A investigação internacional evidenciou ainda a existência de diferenças relevantes entre conteúdos produzidos por IA e os desenvolvidos pelos meios de comunicação tradicionais.

“Enquanto o jornalismo profissional tende a seguir critérios editoriais, verificação de fontes e contextualização geográfica e política, os conteúdos gerados por IA, frequentemente disseminados em redes sociais, podem replicar padrões sensacionalistas, descontextualizar acontecimentos ou até criar cenários plausíveis, mas não verificados”, alertou Cláudia.

“Esta distinção torna-se crítica em contextos de conflito, contribuindo para o medo se estender a regiões não diretamente afetadas. Como resultado, os utilizadores expostos a este tipo de conteúdos tendem a formar percepções mais negativas e generalizadas, em contraste com uma leitura potencialmente mais equilibrada proporcionada pelos média tradicionais”, acrescentou.

LEIA TAMBÉM Você pesquisa seus sintomas no Google? Cuidado, você pode ter Cybercondria

Como a IA impacta negativamente outras realidades

Muitas vezes apresenta informações desatualizadas

Em eventos recentes (política, guerras, notícias) há erros ou falta de contextualização para perceber a história e as circunstâncias dos mesmos.

Pode dar informações sobre preços, leis ou regras que mudaram.

Pode falhar quando não leva em conta a cultura local, ou as regras e tradições de um país ou cidade.

Em áreas técnicas ou especializadas como medicina (diagnósticos, tratamentos), direito  (leis específicas, interpretações legais), engenharia ou ciência pode criar alarmismos ou fornecer informações erradas.

Pode criar fatos, nomes, estudos ou citações falsas, dar respostas que parecem confiáveis, mas não são reais, usar fontes pouco fidedignas, apresentar opiniões como se fossem fatos, e perder-se o verdadeiro sentido de traduções e linguagem, levando a conclusões errôneas.

Como refere o próprio ChatGPT a IA deve ser usada “como apoio e não como fonte final”.

susana@revistaentrerios.pt

susana@revistaentrerios.pt