Campañas de propaganda con IA: Cómo Rusia y China están utilizando la tecnología de OpenAI

31 mayo, 2024

  1. Rusia y China usan IA para influir en la política global.
  2. Descubre cómo las redes sociales están siendo manipuladas.
  3. OpenAI expone las tácticas de desinformación con IA.
Banderas de Rusia y China

En un giro inquietante, OpenAI ha descubierto que grupos de Rusia, China, Irán e Israel han estado utilizando su tecnología para influir en el discurso político global. ¿Cómo lo lograron? A través de la creación de publicaciones, traducción en múltiples idiomas y la automatización de publicaciones en redes sociales.

Uno de los grupos más notorios, «Bad Grammar», originario de Rusia, se destacó por su habilidad para generar texto con menos errores y en mayor volumen de lo que era habitual. Este grupo, junto con otros, ha utilizado herramientas de OpenAI para promover narrativas específicas, como la oposición al apoyo de Estados Unidos a Ucrania.

A pesar de estos esfuerzos, los resultados no han sido tan efectivos como se esperaban. Las cuentas de redes sociales asociadas a estas campañas lograron pocos seguidores y escasa interacción, según Ben Nimmo, investigador principal del equipo de inteligencia y investigaciones de OpenAI. Sin embargo, esta situación plantea una amenaza potencial a medida que nos acercamos a las elecciones presidenciales de 2024.

El problema no se limita solo a Rusia. Grupos de China e Irán también han sido identificados. Por ejemplo, Spamouflage, un grupo chino, utilizó la tecnología para investigar y crear publicaciones en varios idiomas, incluyendo chino, coreano, japonés e inglés. De igual manera, un grupo iraní conocido como la Unión Internacional de Medios Virtuales creó artículos que fueron publicados en su sitio web.

El impacto y las consecuencias de las operaciones de influencia con IA en redes sociales

Las implicaciones de que grupos extranjeros utilicen IA para campañas de propaganda son profundas. Las plataformas de redes sociales, que ya enfrentaban desafíos significativos para mantener la integridad de la información, ahora deben lidiar con contenido generado por IA que es cada vez más realista y difícil de detectar. A medida que la tecnología avanza, los detectores de deepfakes aún no son completamente eficaces, lo que añade una capa adicional de complejidad al problema.

Un caso particular que destaca es el de una campaña israelí que utilizó la tecnología de OpenAI para generar publicaciones pro-Israel durante la guerra de Gaza, dirigidas a audiencias en Canadá, Estados Unidos e Israel. Este esfuerzo incluyó la creación de perfiles ficticios y el hackeo de cuentas existentes, lo que permitió difundir mensajes que promovían el apoyo al ejército israelí y advertían sobre los peligros del radicalismo islámico.

La utilización de IA también se ha manifestado en otras formas más directas de manipulación. Un ejemplo impactante ocurrió en las elecciones de Taiwán, donde se difundió un audio generado por IA que pretendía ser un candidato endosando a otro político. Aunque fue rápidamente desenmascarado, el evento subraya el potencial de la IA para crear caos y confusión durante procesos electorales críticos.

Este panorama se complica aún más cuando se considera la capacidad de la IA para tener conversaciones detalladas y personalizadas con usuarios específicos, intentando influir sus opiniones y decisiones. Aunque OpenAI no ha encontrado evidencia de este tipo de sofisticación en los casos estudiados, la posibilidad sigue siendo una preocupación válida para el futuro.

1 comentario

Deja tu comentario