Campanhas de propaganda com IA: Como Rússia e China estão utilizando a tecnologia da OpenAI

31 maio, 2024

  1. Rússia e China usam IA para influenciar na política global.
  2. Descubra como as redes sociais estão sendo manipuladas.
  3. OpenAI expõe as táticas de desinformação com IA.
Banderas de Rusia y China

Em um giro inquietante, a OpenAI descobriu que grupos da Rússia, China, Irã e Israel têm utilizado sua tecnologia para influenciar no discurso político global. Como conseguiram isso? Através da criação de publicações, tradução em múltiplos idiomas e automação de postagens em redes sociais.

Um dos grupos mais notórios, “Bad Grammar”, originário da Rússia, destacou-se pela habilidade de gerar texto com menos erros e em maior volume do que o habitual. Este grupo, junto com outros, tem utilizado ferramentas da OpenAI para promover narrativas específicas, como a oposição ao apoio dos Estados Unidos à Ucrânia.

Apesar desses esforços, os resultados não foram tão eficazes quanto o esperado. As contas de redes sociais associadas a essas campanhas conseguiram poucos seguidores e pouca interação, segundo Ben Nimmo, pesquisador principal da equipe de inteligência e investigações da OpenAI. No entanto, essa situação representa uma ameaça potencial à medida que nos aproximamos das eleições presidenciais de 2024.

O problema não se limita apenas à Rússia. Grupos da China e do Irã também foram identificados. Por exemplo, o Spamouflage, um grupo chinês, utilizou a tecnologia para pesquisar e criar postagens em vários idiomas, incluindo chinês, coreano, japonês e inglês. Da mesma forma, um grupo iraniano conhecido como a União Internacional de Mídias Virtuais criou artigos que foram publicados em seu site.

O impacto e as consequências das operações de influência com IA nas redes sociais

As implicações de grupos estrangeiros utilizando IA para campanhas de propaganda são profundas. As plataformas de redes sociais, que já enfrentavam desafios significativos para manter a integridade da informação, agora precisam lidar com conteúdo gerado por IA que é cada vez mais realista e difícil de detectar. À medida que a tecnologia avança, os detectores de deepfakes ainda não são completamente eficazes, o que adiciona uma camada adicional de complexidade ao problema.

Um caso particular que se destaca é o de uma campanha israelense que utilizou a tecnologia da OpenAI para gerar postagens pró-Israel durante a guerra de Gaza, direcionadas a audiências no Canadá, Estados Unidos e Israel. Este esforço incluiu a criação de perfis fictícios e o hackeamento de contas existentes, o que permitiu difundir mensagens que promoviam o apoio ao exército israelense e alertavam sobre os perigos do radicalismo islâmico.

A utilização de IA também se manifestou em outras formas mais diretas de manipulação. Um exemplo impactante ocorreu nas eleições de Taiwan, onde foi difundido um áudio gerado por IA que pretendia ser um candidato endossando outro político. Embora tenha sido rapidamente desmascarado, o evento ressalta o potencial da IA para criar caos e confusão durante processos eleitorais críticos.

Esse panorama se complica ainda mais quando se considera a capacidade da IA para ter conversas detalhadas e personalizadas com usuários específicos, tentando influenciar suas opiniões e decisões. Embora a OpenAI não tenha encontrado evidências desse tipo de sofisticação nos casos estudados, a possibilidade continua sendo uma preocupação válida para o futuro.

Deixe o primeiro comentário