Plano Voluntário da Tech para Salvar as Eleições

20 fevereiro, 2024

  1. Gigantes da tecnologia se unem em um compromisso sem precedentes contra os deepfakes eleitorais.
  2. Medidas voluntárias e legislação: são suficientes para combater a manipulação eleitoral?
  3. A proliferação de deepfakes e a corrida tecnológica para detectá-los antes das eleições.
Ilustración con elementos digitales relacionados con la política.

Os deepfakes eleitorais se tornaram uma ferramenta preocupante de manipulação. Mas o que acontece quando os gigantes da tecnologia decidem unir forças contra essa ameaça? Na Conferência de Segurança de Munique, pesos pesados como Microsoft, Meta, Google, Amazon, Adobe e IBM deram um passo à frente, comprometendo-se a combater os deepfakes que buscam enganar os eleitores. Elas não estão sozinhas nessa batalha; a elas se juntaram treze outras empresas, incluindo startups de IA e plataformas de mídia social, todas sob uma única bandeira: adotar uma estrutura comum para responder a essas falsificações geradas por IA.

E como eles planejam lidar com esse fenômeno? Os signatários se comprometeram a detectar e marcar deepfakes políticos enganosos, compartilhar práticas recomendadas e responder de forma rápida e proporcional quando eles começarem a circular em suas plataformas. Mas isso não termina aí; eles também se concentrarão no contexto, buscando proteger a expressão educacional, documental, artística, satírica e política, mantendo a transparência com os usuários sobre suas políticas contra conteúdo eleitoral enganoso.

Embora esse acordo seja voluntário e possa ser considerado insuficiente por alguns críticos, ele reflete uma clara preocupação do setor de tecnologia em ficar fora dos holofotes regulatórios, especialmente em um ano em que quase metade da população mundial participará de eleições nacionais. Será que isso dará início a uma era de colaboração sem precedentes para proteger a integridade das eleições? Só o tempo dirá.

Medidas e eficácia do acordo contra deepfakes

Embora o acordo pareça promissor, até que ponto os gigantes da tecnologia podem realmente proteger as eleições contra os deepfakes eleitorais? Brad Smith, da Microsoft, reconhece que o setor de tecnologia não pode lidar sozinho com essa nova forma de abuso eleitoral. A chave, diz ele, está na ação de várias partes interessadas, envolvendo vários atores na proteção das eleições. Mas que medidas concretas estão sendo tomadas?

Por um lado, há a detecção e a rotulagem de conteúdo falso, um esforço coletivo para compartilhar práticas eficazes e responder rapidamente quando tentativas de manipulação são detectadas. Entretanto, esse esforço voluntário foi criticado por possivelmente ser uma “sinalização de virtude” em vez de uma ação concreta. Apesar disso, o acordo mostra uma tendência de autorregulação e prevenção, em um momento crucial em que 49% da população mundial está se preparando para votar nas eleições nacionais.

Legislação e ação regulatória contra deepfakes

Nesse cenário de incerteza e risco, a legislação desempenha um papel fundamental. Embora nos Estados Unidos não exista uma lei federal que proíba as deepfakes, 10 estados já tomaram medidas, criminalizando seu uso na esfera política. Internacionalmente, a União Europeia está liderando o caminho com o AI Act, exigindo que todo o conteúdo gerado por IA seja claramente rotulado. Além disso, sua Lei de Serviços Digitais busca obrigar o setor de tecnologia a tomar medidas contra deepfakes de várias formas.

Mas além das leis, vimos ações regulatórias, como a FTC e a FCC nos EUA, buscando adaptar suas regulamentações para combater esse problema. Enquanto isso, as deepfakes continuam a se proliferar, com um aumento de 900% em sua criação ano após ano, provando que a luta contra essa forma de desinformação é mais relevante do que nunca.

Deixe o primeiro comentário