Los deepfakes electorales se han convertido en una preocupante herramienta de manipulación. Pero, ¿qué pasa cuando los grandes del tech deciden unir fuerzas contra esta amenaza? En la Conferencia de Seguridad de Múnich, pesos pesados como Microsoft, Meta, Google, Amazon, Adobe e IBM han dado un paso al frente, comprometiéndose a luchar contra los deepfakes que buscan engañar a los votantes. No están solos en esta batalla; se les unen trece empresas más, incluidos startups de IA y plataformas de redes sociales, todos bajo un mismo estandarte: adoptar un marco común para responder a estas falsificaciones generadas por IA.
¿Y cómo planean hacerle frente a este fenómeno? Los firmantes se comprometen a detectar y etiquetar los deepfakes políticos engañosos, compartiendo sus mejores prácticas y respondiendo de manera rápida y proporcionada cuando estos comiencen a circular en sus plataformas. Pero aquí no acaba todo; también se enfocarán en el contexto, procurando proteger la expresión educativa, documental, artística, satírica y política, manteniendo siempre una transparencia con los usuarios sobre sus políticas contra el contenido electoral engañoso.
Aunque este acuerdo es voluntario y algunos críticos podrían considerarlo insuficiente, refleja una clara preocupación del sector tecnológico por mantenerse fuera del punto de mira regulatorio, especialmente en un año donde casi la mitad de la población mundial participará en elecciones nacionales. ¿Será este el inicio de una era de colaboración sin precedentes para proteger la integridad de las elecciones? Solo el tiempo lo dirá.
Medidas y efectividad del acuerdo contra deepfakes
Aunque el acuerdo suena prometedor, ¿hasta qué punto pueden los gigantes tecnológicos proteger realmente las elecciones de los deepfakes electorales? Brad Smith, de Microsoft, reconoce que el sector tecnológico no puede solo con esta nueva forma de abuso electoral. La clave, según él, reside en la acción multilateral, implicando a múltiples actores en la protección de las elecciones. Pero, ¿qué medidas concretas se están tomando?
Por un lado, tenemos la detección y etiquetado de los contenidos falsos, un esfuerzo colectivo para compartir prácticas efectivas y responder con agilidad cuando se detectan intentos de manipulación. Sin embargo, este esfuerzo voluntario ha sido criticado por ser, posiblemente, «señalización de virtud» más que una acción concreta. A pesar de ello, el acuerdo muestra una tendencia hacia la auto-regulación y la prevención, en un momento crucial en que el 49% de la población mundial se prepara para votar en elecciones nacionales.
Legislación y acción regulatoria contra los deepfakes
En este escenario de incertidumbre y riesgo, la legislación juega un papel fundamental. Aunque en Estados Unidos no existe una ley federal que prohíba los deepfakes, ya hay 10 estados que han tomado cartas en el asunto, criminalizando su uso en el ámbito político. A nivel internacional, la Unión Europea está liderando con el Acta de IA, exigiendo que todo contenido generado por IA sea claramente etiquetado. Además, su Ley de Servicios Digitales busca obligar a la industria tecnológica a tomar medidas contra los deepfakes en diversas formas.
Pero más allá de las leyes, hemos visto acciones regulatorias como la de la FTC y la FCC en Estados Unidos, buscando adaptar sus reglamentos para combatir esta problemática. Y mientras tanto, los deepfakes continúan proliferando, con un aumento del 900% en su creación año tras año, demostrando que la lucha contra esta forma de desinformación es más relevante que nunca.