Mark Pollard, un reconegut autor australià en el camp del màrqueting, va experimentar un revés inesperat en el seu viatge a Xile. En seguir les recomanacions de ChatGPT sobre els requisits de visat, es va trobar bloquejat a l’aeroport, cosa que li va costar l’oportunitat de participar en una important conferència.
Confiat en la intel·ligència artificial, Pollard va consultar a ChatGPT sobre si necessitava un visat per a la seva breu estada al país sud-americà. La resposta del chatbot va ser clara: no era necessari. Tanmateix, en arribar a l’aeroport, la situació era molt diferent: es va adonar que havia d’haver tramitat un visat electrònic abans del seu viatge.
L’impacte de la desinformació en els viatges
L’experiència de Pollard es va fer viral a les xarxes socials després de compartir la seva història en un vídeo que ha acumulat més de 1,5 milions de visualitzacions a Instagram. En la seva publicació, l’autor va detallar com havia decidit confiar en la intel·ligència artificial per respondre a una pregunta tan crucial com els requisits d’entrada a un país.
Desafortunadament, l’afirmació de ChatGPT va resultar ser incorrecta. En arribar a l’aeroport, la realitat el va colpejar: el visat era una necessitat per als ciutadans australians que desitgen ingressar a Xile. Sense aquest document, no només se li va prohibir embarcar-se a l’avió, sinó que també va perdre l’oportunitat de participar en l’esdeveniment al qual es dirigia.
Curiosament, quan mitjans de comunicació van realitzar la mateixa consulta a ChatGPT, el chatbot va continuar repetint l’error inicial. Va ser només en indagar sobre la font de la seva informació que la IA va corregir la seva resposta, admetent que un e-visa era necessari des de 2020 per als australians que viatgen a Xile.
Reflexions sobre la confiança en la intel·ligència artificial
Malgrat que OpenAI inclou un avís a la seva plataforma advertint que ChatGPT pot cometre errors, molts usuaris passen per alt aquesta advertència. Pollard, en reconèixer el seu error, va expressar que hauria d’haver consultat fonts més fiables com Google, però va preferir la simplicitat que oferia el chatbot. «Els resultats de cerca són tan confusos avui dia, amb tantes publicacions patrocinades… ChatGPT em va semblar més fàcil», va comentar.
Tanmateix, aquesta comoditat li va costar car, ja que ara planeja seguir utilitzant IA per a la seva planificació, però ha decidit no confiar en ChatGPT per a assumptes de gran importància. Amb la seva lliçó aprenent, Pollard reflexiona sobre la responsabilitat que tenim al dependre de la tecnologia per obtenir informació crítica.