Un viajero australiano se queda varado en el aeropuerto por un error de ChatGPT sobre el visado chileno

2 abril, 2025

Un autor australiano confía en la inteligencia artificial para sus planes de viaje y termina enfrentando un gran contratiempo en el aeropuerto.

Mark Pollard, un reconocido autor australiano en el ámbito del marketing, experimentó un revés inesperado en su viaje a Chile. Al seguir las recomendaciones de ChatGPT sobre los requisitos de visado, se encontró bloqueado en el aeropuerto, lo que le costó la oportunidad de participar en una importante conferencia.

Confiado en la inteligencia artificial, Pollard consultó a ChatGPT sobre si necesitaba un visado para su breve estancia en el país sudamericano. La respuesta del chatbot fue clara: no era necesario. Sin embargo, al llegar al aeropuerto, la situación era muy diferente: se dio cuenta de que debía haber tramitado un visado electrónico antes de su viaje.

El impacto de la desinformación en los viajes

La experiencia de Pollard se volvió viral en las redes sociales tras compartir su historia en un video que ha acumulado más de 1,5 millones de visualizaciones en Instagram. En su publicación, el autor detalló cómo había decidido confiar en la inteligencia artificial para responder a una pregunta tan crucial como los requisitos de entrada a un país.

Desafortunadamente, la afirmación de ChatGPT resultó ser incorrecta. Al llegar al aeropuerto, la realidad le golpeó: el visado era una necesidad para los ciudadanos australianos que desean ingresar al Chile. Sin este documento, no solo se le prohibió abordar el avión, sino que también se perdió la oportunidad de participar en el evento al que se dirigía.

Curiosamente, cuando medios de comunicación realizaron la misma consulta a ChatGPT, el chatbot continuó repitiendo el error inicial. Fue solo al indagar sobre la fuente de su información que la IA corrigió su respuesta, admitiendo que un e-visa era necesario desde 2020 para los australianos que viajan a Chile.

Reflexiones sobre la confianza en la inteligencia artificial

A pesar de que OpenAI incluye un aviso en su plataforma advirtiendo que ChatGPT puede cometer errores, muchos usuarios pasan por alto esta advertencia. Pollard, al reconocer su error, expresó que debió consultar fuentes más confiables como Google, pero prefirió la simplicidad que ofrecía el chatbot. «Los resultados de búsqueda son tan confusos hoy en día, con tantas publicaciones patrocinadas… ChatGPT me pareció más fácil», comentó.

Sin embargo, esta comodidad le costó caro, ya que ahora planea seguir utilizando IA para su planificación, pero ha decidido no confiar en ChatGPT para asuntos de gran importancia. Con su lección aprendida, Pollard reflexiona sobre la responsabilidad que tenemos al depender de la tecnología para obtener información crítica.

Deja el primer comentario