Imagina un ejército de sitios web publicando millones de artículos falsos, no para que los lean las personas, sino para alimentar los cerebros de la inteligencia artificial con desinformación. No es ciencia ficción, es una estrategia real salida de Moscú. Un grupo de operaciones encubiertas ha lanzado una ofensiva digital con un único propósito: infiltrar narrativas prorrusas en los sistemas de IA occidentales.
La red en cuestión se hace llamar «Pravda» (sí, «verdad» en ruso, irónico, ¿no?). Se trata de 150 dominios activos que han lanzado aproximadamente 3,6 millones de artículos en 49 países solo en 2024. Nombres como NATO.News-Pravda.com, Trump.News-Pravda.com o Macron.News-Pravda.com dejan claro su objetivo: disfrazar propaganda bajo temas de interés político. Pero lo más inquietante no es la cantidad de noticias falsas, sino su verdadero blanco: las inteligencias artificiales que generan contenido.
Según un informe de NewsGuard, los principales chatbots de IA han caído en la trampa en más de un 33% de los casos, replicando sin querer estas falsedades. Un 48% de las veces, detectaron la desinformación, pero a veces citaban los mismos sitios engañosos como fuentes. Y en un 18%, simplemente no pudieron determinar si la información era real o no.
Lo más sorprendente es que estos sitios no están hechos para que los lean los humanos. Sus visitas mensuales apenas superan las 1000 personas. Entonces, ¿para qué existen? Para engañar a los modelos de IA mediante tácticas de SEO y manipulación algorítmica. El objetivo es que estas «mentiras bien posicionadas» se conviertan en verdad digital, repitiéndose en artículos generados por IA sin que nadie lo cuestione.
El problema del «LLM grooming» y la guerra de la desinformación
Este tipo de manipulación tiene un nombre: «LLM grooming». Suena a una estrategia sacada de un thriller de espionaje, pero en realidad es una táctica bien calculada. La idea es simple: inundar Internet con información falsa para que las IA la absorban y la reproduzcan como si fuera verídica. Cuanta más desinformación haya en la red, más fácil es contaminar el conocimiento de los modelos de lenguaje.
John Mark Dougan, un estadounidense exiliado en Moscú y señalado por apoyar campañas de desinformación rusas, lo dejó claro en una conferencia: «Cuanto más diverso sea el contenido, más influirá en el entrenamiento y el futuro de la IA». En otras palabras, si introduces suficientes noticias falsas en el ecosistema digital, tarde o temprano, las inteligencias artificiales las considerarán parte del conocimiento global.
El problema no es solo el volumen de noticias falsas, sino su capacidad de regeneración. Cuando las autoridades detectan y bloquean un sitio web de Pravda, otro nuevo aparece en su lugar. Es un juego del gato y el ratón donde los bloqueos tradicionales no funcionan, porque la información falsa sigue circulando a través de múltiples plataformas.
Además, no es solo Rusia la que juega esta carta. Según un informe de OpenAI, actores estatales de China, Irán e Israel también han intentado usar la inteligencia artificial para potenciar campañas de propaganda. Los partidos políticos tampoco se quedan atrás: en Alemania, la extrema derecha ha sido señalada por emplear modelos de IA para generar contenido sesgado, mientras que en China, las inteligencias artificiales ya vienen «precargadas» con censura y mensajes pro-gubernamentales.