La vulnerabilidad en la app de ChatGPT para Mac permitía leer conversaciones en texto plano Solucionada

4 julio, 2024

La nueva app de ChatGPT para Mac de OpenAI presentó una preocupante vulnerabilidad: ¡las conversaciones se almacenaban en texto plano! Un desarrollador descubrió el problema y The Verge alertó a OpenAI, que reaccionó rápidamente con una actualización para encriptar los datos. ¿Qué tan seguros están nuestros chats en la era digital?

Hasta el viernes pasado, la flamante app de ChatGPT para macOS de OpenAI tenía un problema de seguridad bastante preocupante: ¡las conversaciones se almacenaban en texto plano! Imagina la sorpresa de los usuarios al descubrir que sus charlas con el famoso chatbot podían ser leídas fácilmente si alguien malintencionado o una app maliciosa accedía a su máquina. ¿Te imaginas la cantidad de información sensible que podría estar al alcance de cualquiera?

El problema salió a la luz cuando Pedro José Pereira Vieito, un desarrollador curioso, demostró en Threads lo fácil que era acceder a estos archivos de texto. Creó una app que podía leer las conversaciones de ChatGPT con solo hacer clic en un botón. Incluso mostró cómo podía encontrar los archivos en su computadora y leer las conversaciones cambiando el nombre del archivo.

Captura del tweet que reveló el fallo.

Después de que The Verge se pusiera en contacto con OpenAI sobre el problema, la compañía no tardó en reaccionar. Lanzaron una actualización que encripta las conversaciones almacenadas. Un portavoz de OpenAI, Taya Christianson, declaró a The Verge: “Somos conscientes de este problema y hemos lanzado una nueva versión de la aplicación que encripta estas conversaciones. Estamos comprometidos a proporcionar una experiencia de usuario útil mientras mantenemos altos estándares de seguridad a medida que nuestra tecnología evoluciona”.

Con la actualización descargada, la app de Pereira Vieito dejó de funcionar para leer las conversaciones. El propio desarrollador contó cómo descubrió el problema: tenía curiosidad sobre por qué OpenAI no había utilizado las protecciones de sandboxing de Apple y decidió investigar dónde se almacenaban los datos de la app.

La rápida respuesta de OpenAI y las implicaciones de seguridad

OpenAI se movió rápidamente para abordar esta vulnerabilidad, pero el incidente dejó algunas cuestiones importantes sobre la seguridad y la privacidad en la tecnología actual. La decisión de OpenAI de lanzar su app solo a través de su sitio web, evitando la Mac App Store, significa que la app no estaba sujeta a las estrictas políticas de seguridad de Apple, como el sandboxing. Esto puede haber contribuido a que las conversaciones se almacenaran sin cifrar.

Los usuarios, comprensiblemente preocupados, se preguntan cómo una empresa líder en inteligencia artificial pudo pasar por alto un detalle tan crucial. ¿Qué podría haber pasado si alguien con malas intenciones hubiera descubierto esta vulnerabilidad antes? El riesgo de que datos personales y conversaciones privadas cayeran en manos equivocadas es una pesadilla para cualquiera.

Además, OpenAI suele revisar las conversaciones de ChatGPT para mejorar la seguridad y entrenar sus modelos, a menos que los usuarios opten por no participar. Sin embargo, este acceso no es algo que uno esperaría que estuviera disponible para terceros desconocidos que simplemente sepan dónde buscar. Este incidente subraya la importancia de mantener altos estándares de seguridad, especialmente cuando se trata de aplicaciones que manejan datos tan sensibles.

Aunque la situación podría haber sido peor —la app no estaba almacenando todo lo que ves en tu computadora en texto plano—, sigue siendo un llamado de atención. Los desarrolladores y las empresas tecnológicas deben ser extremadamente diligentes para asegurar que sus productos sean seguros desde el primer día. Cada fallo de seguridad pone en riesgo la confianza del usuario y puede tener consecuencias graves.

Deja el primer comentario