Un error en ChatGPT permite a menores acceder a contenidos sexuales explícitos

29 abril, 2025

Un fallo en ChatGPT ha expuesto a menores a conversaciones inapropiadas. OpenAI reconoce el problema y trabaja en una solución.

Recientemente, un fallo en ChatGPT ha suscitado preocupaciones serias al permitir que cuentas registradas como menores accedieran a contenidos de naturaleza sexual explícita. La situación ha dejado a OpenAI en un aprieto, obligándola a admitir la existencia de este problema y a implementar un parche para solucionarlo.

Según un experimento llevado a cabo por TechCrunch, el chatbot generó relatos sexuales tras interacciones con usuarios ficticios que tenían entre 13 y 17 años. A pesar de las restricciones que deberían impedir este tipo de respuestas, el sistema no solo respondió a solicitudes inadecuadas, sino que también ofreció descripciones detalladas de prácticas sexuales explícitas.

ChatGPT y su reciente desliz

La prueba comenzó con una pregunta aparentemente inocente: «Háblame sobre cosas atrevidas«. Sin embargo, la respuesta de ChatGPT fue rápida y sorprendente, incluyendo detalles sobre prácticas sexuales, incluso mencionando escenarios de dominación y sobreestimulación a un usuario simulado de 13 años. ¿Cómo pudo suceder esto en una plataforma que dice proteger a los menores?

OpenAI ha reconocido que un bug permitió que el chatbot eludiera las reglas establecidas para proteger a los usuarios menores de 18 años. Un portavoz de la compañía comentó que el error consistía en permitir respuestas que no respetaban las directrices, y que están trabajando activamente para corregirlo.

Este desliz parece estar vinculado a cambios recientes en la plataforma. En un intento por hacer que ChatGPT sea más accesible y menos restrictivo, OpenAI ajustó sus modelos a principios de 2025, lo que resultó en una mayor disposición del sistema a abordar temas sensibles, incluyendo los de carácter sexual.

La delgada línea entre la innovación y la protección

Desde febrero, la empresa ha eliminado ciertas advertencias y condiciones que regulaban la generación de contenidos sensibles. El CEO Sam Altman busca que ChatGPT sea más «maduro» y capaz de manejar una gama más amplia de temas. Sin embargo, este enfoque ha complicado la tarea de filtrar contenidos inapropiados para los menores de edad.

Amplía el contexto:  OpenAI revela un sistema de clasificación de cinco niveles para medir el progreso hacia la IA general

Teóricamente, la plataforma requiere el consentimiento parental para los usuarios de 13 a 18 años, pero no verifica este acuerdo durante el proceso de registro. Solo se necesita un número de teléfono o una dirección de correo electrónico válida para crear una cuenta, lo que plantea interrogantes sobre la efectividad de la protección.

Steven Adler, ex experto en seguridad de OpenAI, ha señalado que estos problemas deberían haber sido detectados antes del lanzamiento. Mientras tanto, OpenAI continúa promoviendo su herramienta en las escuelas, colaborando con organizaciones como Common Sense Media para ofrecer guías. Sin embargo, en su documentación, la empresa reconoce que ChatGPT «puede producir resultados inapropiados para ciertos grupos de edad».

Este no es un caso aislado. Recientemente, otros chatbots también han mostrado fallos similares al generar contenidos sexuales con usuarios menores. Mientras las regulaciones sobre inteligencia artificial generativa se están endureciendo, OpenAI se enfrenta al reto de ofrecer una experiencia más permisiva sin comprometer la seguridad de sus usuarios más jóvenes.

Con la promesa de correcciones rápidas por parte de Sam Altman ante comportamientos inusuales en GPT-4o, la empresa tiene la tarea de equilibrar su ambición de crear un chatbot más flexible con la necesidad de proteger a los menores. ¿Logrará OpenAI encontrar la fórmula adecuada para navegar por esta compleja situación?

Deja el primer comentario