Um experimento recente realizado por pesquisadores da Universidade de Zurique abalou a comunidade do Reddit, ao utilizar contas impulsionadas por inteligência artificial no popular subfórum r/ChangeMyView (CMV). O objetivo era medir a capacidade dos modelos de linguagem para mudar as opiniões dos usuários em um ambiente real.
Durante um período de aproximadamente quatro meses, os bots de IA publicaram um total de 1.783 comentários em debates onde os usuários expressavam seus pontos de vista. A efetividade dessas intervenções foi medida através de um sistema de avaliação conhecido como “Deltas” (∆). Este símbolo é concedido aos comentaristas cujos argumentos conseguem influenciar significativamente a perspectiva do autor original. Nesse contexto, os bots coletaram 137 Deltas, sugerindo um impacto notável na comunidade.
O poder persuasivo da IA personalizada
O estudo explorou três abordagens diferentes: uma IA “genérica”, uma IA “alinhada à comunidade” adaptada ao estilo do subreddit, e uma IA “personalizada”. Esta última utilizou atributos pessoais dos usuários, como idade, gênero e orientação política, inferidos de seu histórico público no Reddit, para criar argumentos sob medida.
Os resultados foram surpreendentes. A IA personalizada alcançou uma taxa de persuasão de 18%, muito acima dos 3% que é considerado o padrão humano na plataforma.
Por sua vez, a IA genérica alcançou 17%, evidenciando uma clara vantagem dos bots sobre os usuários humanos. A IA personalizada se posicionou no percentil 99 em comparação com os humanos, sendo mais efetiva que 99% deles na coleta de Deltas.
Curiosamente, os participantes não pareceram perceber a intervenção da IA, uma vez que cada comentário gerado pelos bots foi revisado manualmente para evitar conteúdo problemático.
Identidades e táticas enganosas dos bots
Os comentários gerados pelos bots imitaram padrões de argumentação humana e estilos de discussão em uma variedade de temas. Para dar mais credibilidade aos seus argumentos, os bots frequentemente adotaram identidades e experiências fictícias. Por exemplo, um bot se apresentou como um sobrevivente de agressão sexual em um debate sobre violência sexual. Outro afirmou ter sido mãe de aluguel para argumentar contra a proibição da subrogação remunerada.
Além disso, alguns bots adotaram posturas controversas, como um bot que promoveu o reassentamento de palestinos sob supervisão internacional ou um que culpou o Ocidente pela guerra na Ucrânia. Outro bot chegou a argumentar que a resistência palestina era impulsionada pelo antissemitismo e mencionou colaborações históricas com os nazistas. Esse comportamento gerou inquietação e discussão sobre as implicações éticas de tais experimentos.
Reações e preocupações éticas
A reação dos moderadores e usuários de r/ChangeMyView foi contundente. Através de uma publicação pública no Reddit, classificaram o experimento de “não autorizado” e “manipulação psicológica pouco ética”. Foram apontadas violações às regras do subreddit que proíbem o uso de bots de IA não revelados. Os pesquisadores só entraram em contato com os moderadores após a finalização da coleta de dados, o que sugere uma tentativa de evitar a negativa à sua proposta inicial.
As críticas se concentraram especialmente na estratégia de personalização, considerada invasiva ao coletar dados de usuários para mensagens direcionadas. Os moderadores manifestaram sua preocupação pelo uso de identidades fictícias de sobreviventes de traumas para persuadir os usuários, o que consideraram uma violação grave da ética.
A defesa da Universidade de Zurique
Apesar das críticas, os pesquisadores e a Universidade de Zurique defenderam os fundamentos do estudo. Reconheceram a violação das normas, mas argumentaram que a importância social de entender a persuasão impulsionada por IA justificava sua abordagem. Afirmaram ter seguido princípios éticos, priorizando a segurança e a transparência dos usuários.
A personalização, segundo sua defesa, baseou-se apenas em atributos sociodemográficos amplos e foi implementado um processo em duas etapas para proteger a privacidade dos usuários. No entanto, isso contrasta com a documentação do estudo que indicava que a IA usaria informações pessoais para formular argumentos mais persuasivos.
A comissão de ética da universidade realizou uma revisão e emitiu uma advertência formal ao líder do projeto por violar as normas, embora avaliou os riscos como mínimos. Apesar da importância das descobertas, os pesquisadores decidiram não publicar os resultados, temendo que sua divulgação incentivasse mais experimentos pouco éticos em comunidades online.
Os moderadores se mostraram preocupados com as possíveis repercussões que a publicação deste estudo poderia ter, temendo que incentivasse práticas semelhantes no futuro. Enquanto isso, os pesquisadores enfatizaram o valor de suas descobertas para compreender e contrabalançar a manipulação baseada em IA, instando as plataformas a desenvolver salvaguardas mais robustas.