La periodista Kimberly Gasuras es un ejemplo palpable de cómo los detectores de inteligencia artificial pueden arruinar carreras. Con 24 años de experiencia como reportera de noticias, Gasuras confiaba en sus habilidades y en su reputación. «No necesito AI,» afirmaba con seguridad. Sin embargo, esto no fue suficiente para salvar su trabajo.
En la pequeña localidad de Bucyrus, Ohio, Gasuras complementaba su salario escribiendo para WritersAccess, una plataforma freelance que conectaba escritores con empresas pequeñas y medianas. Todo iba bien hasta mediados de 2023, cuando su ingreso empezó a desplomarse debido a la adopción de ChatGPT por parte de algunos clientes. La situación ya era difícil cuando recibió un correo devastador.
El Caso de Kimberly Gasuras: La Injusticia de los Detectores de AI.
«Solo me dieron una advertencia,» explicó Gasuras. La acusaron de usar inteligencia artificial en sus escritos, basándose en un software llamado Originality. A pesar de que defendió su inocencia, nunca recibió una respuesta. Desesperada, comenzó a verificar su trabajo con otros detectores de AI, pero unos meses después fue expulsada de la plataforma. La razón: uso excesivo de AI. WritersAccess no respondió a las solicitudes de comentarios.
¿Puedes creerlo? Una periodista con años de experiencia, relegada por un software imperfecto. Este caso ilustra una tendencia preocupante donde la tecnología, lejos de ser una herramienta, se convierte en un verdugo. Los detectores de AI prometen una precisión casi milagrosa, pero en la práctica, las consecuencias de sus errores pueden ser devastadoras.
La Precisión Dudosa de las Herramientas de Detección de AI
Leyendo el artículo de Gizmodo sobre el tema, descubrimos que los detectores de AI, como Copyleaks, GPTZero, Originality.AI, y Winston AI, aseguran ofrecer una precisión asombrosa, algunos incluso presumen de un 99.98% de exactitud. Sin embargo, expertos y estudios cuestionan estas afirmaciones.
¿Realmente pueden estos detectores identificar la diferencia entre un texto humano y uno generado por AI con tanta precisión? La respuesta parece ser no.
Bars Juhasz, cofundador de Undetectable AI, explica que la confiabilidad de estos detectores es, en el mejor de los casos, dudosa. «Afirmar tener un 99% de precisión es imposible según nuestro trabajo,» dijo Juhasz. Aunque estas herramientas están diseñadas para detectar patrones específicos en los textos, como el uso perfecto de la gramática y la puntuación, estas mismas características pueden ser contraproducentes. Sorprendentemente, herramientas como Grammarly, que mejoran la claridad y corrección de los escritos, pueden hacer que los textos sean señalados como generados por AI.
Por otro lado, algunos detectores miden factores como la “burstiness” y la “perplexity.” Los humanos tienden a usar ciertas palabras en ráfagas, mientras que las IAs distribuyen las palabras de manera más uniforme. No obstante, estos métodos también son falibles. La Universidad de Texas en Austin, entre otras, ha prohibido el uso de software de detección de AI debido a las altas tasas de falsos positivos.
Originality.AI, uno de los líderes del sector, afirma tener una precisión del 98.8%, pero su tasa de falsos positivos es del 2.8%. Estos números, presentados con poca claridad, suman más de 100%, generando confusión y desconfianza. Incluso OpenAI retiró su detector de AI pocos meses después de lanzarlo, citando su baja tasa de precisión.
Las Repercusiones en los Escritores y el Debate sobre la Ética de los Detectores de AI
Mark, un copywriter de Ohio, relata cómo un detector de AI le costó su trabajo. Tras tres años de colaboración con una plataforma, fue acusado injustamente de usar AI. Aunque proporcionó pruebas de que escribió manualmente sus artículos, esto no fue suficiente. La pérdida de este trabajo le costó el 90% de sus ingresos, obligándole a buscar empleo en el mantenimiento de una tienda local.
Jonathan Gillham, CEO de Originality.AI, admite que los falsos positivos son un problema, pero defiende que sus herramientas son necesarias para combatir el contenido de baja calidad generado por AI. Sin embargo, escritores como Mark argumentan que estos detectores son los verdaderos culpables de su desempleo.
El debate sobre la ética de los detectores de AI se intensifica a medida que más escritores son afectados. Debora Weber-Wulff, profesora en la Universidad de Ciencias Aplicadas para Ingeniería y Economía en Berlín, critica duramente estas herramientas, calificándolas de «aceite de serpiente.» Según Weber-Wulff, confiar en estos detectores es un intento fallido de resolver problemas sociales con soluciones tecnológicas inadecuadas.
La situación es aún más complicada por los mensajes contradictorios de las empresas de detección de AI. Originality.AI aconseja no usar sus herramientas en contextos académicos debido al alto riesgo de falsos positivos, pero simultáneamente promueve su uso como esencial en la educación.
La paranoia generada por estos detectores está erosionando la confianza entre escritores y clientes. La necesidad de soluciones precisas y justas es clara, pero hasta que estas herramientas mejoren significativamente, los escritores seguirán enfrentándose a la incertidumbre y la injusticia.