Como seria uma guerra na qual as máquinas tomam decisões de vida ou morte? Bem-vindo ao inquietante presente da inteligência artificial no campo de batalha. Imagine um cenário onde um esquadrão de soldados, encurralado pelo fogo inimigo, solicita apoio e, em questão de segundos, uma frota de drones autônomos rasga o céu em busca de alvos. Esses pequenos, mas letais dispositivos, equipados com explosivos e guiados por IA, se infiltram em edifícios, escaneiam o terreno e, com uma precisão assustadora, eliminam as ameaças uma a uma.
Esse cenário, que poderia parecer extraído de um filme de ficção científica, já é uma realidade em desenvolvimento. As armas autônomas impulsionadas por IA estão deixando de ser uma possibilidade futura para se tornarem uma realidade presente nos conflitos armados atuais. Mas quais são as implicações disso para o futuro da guerra e da humanidade em geral?
A guerra na Ucrânia se tornou um sombrio campo de provas para essas novas tecnologias. O exército ucraniano utilizou drones equipados com IA e explosivos para atacar refinarias de petróleo russas, enquanto os americanos usaram sistemas de IA para identificar alvos na Síria e no Iêmen. Talvez mais alarmante ainda seja o caso das Forças de Defesa de Israel, que usaram um sistema de seleção de alvos baseado em IA para etiquetar cerca de 37.000 palestinos como supostos militantes durante as primeiras semanas de sua guerra em Gaza.
A confluência de conflitos globais e avanços tecnológicos agiu como um catalisador para o desenvolvimento da IA na guerra. Especialistas alertam que essa tendência não está apenas acelerando a adoção dessas tecnologias, mas também destacando a falta de regulamentação nesse campo emergente. Estamos preparados para as consequências éticas e práticas de delegar decisões de vida ou morte às máquinas?
Gigantes tecnológicos e startups: os novos senhores da guerra
Quem poderia imaginar que as empresas que projetam nossos smartphones e redes sociais seriam também as arquitetas dos sistemas de guerra do futuro? A crescente demanda militar por tecnologias de IA desencadeou uma verdadeira corrida do ouro no Vale do Silício e além. Empresas de tecnologia e startups de defesa se lançaram em uma corrida frenética para desenvolver e comercializar sistemas de armas autônomos, transformando esse setor em um negócio multimilionário.
Estamos preparados para um futuro em que as empresas que gerenciam nossos dados pessoais também tenham o poder de decidir sobre a vida e a morte nos campos de batalha?
Tomemos como exemplo a Anduril, uma startup fundada por Palmer Luckey, um jovem bilionário de 31 anos conhecido por seu peculiar estilo de vestir com camisas havaianas. Essa empresa está desenvolvendo drones de ataque autônomos letais, aviões de combate não tripulados e veículos submarinos. Com uma avaliação estimada em 12,5 bilhões de dólares, a Anduril já conseguiu importantes contratos com o Pentágono.
Mas a Anduril não está sozinha nessa corrida. A Palantir, outra gigante tecnológica, obteve um contrato de 480 milhões de dólares com o Pentágono para sua tecnologia de IA que ajuda a identificar alvos hostis. Essas empresas não estão apenas desenvolvendo tecnologia, mas estão redefinindo a forma como as guerras modernas são travadas.
O cenário se torna ainda mais complexo quando consideramos a participação das grandes empresas de tecnologia. O Google, por exemplo, após enfrentar protestos de seus funcionários em 2018 por sua participação no Projeto Maven do exército, mudou de rumo. Recentemente, assinou um acordo de 1,2 bilhões de dólares com o governo e o exército israelense para fornecer serviços de computação em nuvem e capacidades de inteligência artificial. Como isso afetará a percepção pública dessas empresas?
A ironia não escapa a ninguém: as mesmas empresas que projetam os aplicativos que usamos diariamente estão agora na vanguarda do desenvolvimento de sistemas de armas autônomos. Essa convergência entre o mundo tecnológico civil e militar levanta perguntas inquietantes. Estamos preparados para um futuro em que as empresas que gerenciam nossos dados pessoais também tenham o poder de decidir sobre a vida e a morte nos campos de batalha?
O dilema ético: quem toma as decisões letais?
Imagine por um momento que você é um soldado no campo de batalha. Um drone autônomo identificou um alvo potencial. Você confiaria cegamente em sua decisão? Ou preferiria ter a última palavra? Esse cenário hipotético ilustra um dos debates mais acalorados em torno da IA na guerra: o conceito do “humano no circuito”.
A ideia de manter um ser humano envolvido nas decisões críticas parece reconfortante, certo? No entanto, a realidade é muito mais complexa. Como aponta Rebecca Crootof, especialista em guerra autônoma da Universidade de Richmond, “todos podem concordar com esse conceito, enquanto simultaneamente todos podem discordar sobre o que realmente significa na prática”. É suficiente que um humano simplesmente supervisione o sistema? Ou deve tomar ativamente cada decisão final?
A analogia com os carros autônomos nos oferece uma perspectiva interessante. Se um carro autônomo cede o controle a um humano momentos antes de um acidente, quem é o responsável?
Esse dilema se magnifica exponencialmente quando falamos de decisões de vida ou morte em um contexto militar. Estamos criando o que os pesquisadores chamam de “zona de colapso moral”, onde colocamos humanos no assento do motorista apenas para ter alguém a quem culpar quando as coisas dão errado?
A falta de transparência nesses sistemas autônomos agrava ainda mais o problema ético. Quando os governos implementam tecnologias de IA já de si secretas e proprietárias no mundo clandestino da segurança nacional, cria-se o que a professora de direito Ashley Deeks chama de “dupla caixa preta”. Esse obscurantismo torna extremamente difícil para o público saber se esses sistemas estão operando de maneira correta ou ética.
Um caso alarmante que ilustra os perigos dessa opacidade é o uso por parte do exército israelense de um sistema de IA para determinar alvos de ataques aéreos, mesmo sabendo que o software cometia erros em aproximadamente 10% dos casos. Quantas vidas inocentes podem estar em jogo devido a esses margens de erro? E quem assume a responsabilidade quando algo dá errado?
Essas perguntas não são meramente acadêmicas. À medida que a IA se integra cada vez mais nos sistemas militares, a linha entre a decisão humana e a máquina se torna cada vez mais tênue. Estamos preparados como sociedade para lidar com as consequências éticas e morais de delegar decisões de vida ou morte a algoritmos?
Podemos controlar a IA na guerra?
Em abril deste ano, representantes de 143 países se reuniram em Viena para discutir a regulamentação do uso da IA e das armas autônomas na guerra. Mas, chegamos tarde demais?
O ministro das Relações Exteriores da Áustria, Alexander Schallenberg, fez um apelo desesperado: “Pelo menos, asseguremos que a decisão mais profunda e de maior alcance, quem vive e quem morre, permaneça nas mãos dos humanos e não das máquinas”. Esse apelo reflete a urgência da situação. Organizações como o Comitê Internacional da Cruz Vermelha e Stop Killer Robots defendem há mais de uma década proibições específicas e regras gerais para governar essa tecnologia. Mas, por que tem sido tão difícil chegar a um acordo?
A resposta reside na resistência dos principais atores nesse campo. Rússia, China, Estados Unidos, Israel, Índia, Coreia do Sul e Austrália se opõem a qualquer nova lei internacional sobre armas autônomas. Surpreso? Não deveria estar. Esses países são os principais criadores e usuários dessa tecnologia. Como podemos esperar que abram mão do que consideram uma vantagem estratégica crucial?
Mas o problema vai além dos governos. As empresas de defesa e seus influentes proprietários também estão pressionando contra as regulamentações. Palmer Luckey, fundador da Anduril, fez compromissos vagos sobre manter um “humano no circuito” na tecnologia de sua empresa, enquanto se opõe publicamente à regulamentação e proibições de armas autônomas. Alex Karp, CEO da Palantir, vai ainda mais longe, caracterizando as armas autônomas e a IA como uma corrida global pela supremacia contra adversários geopolíticos como Rússia e China.
E o que dizer do futuro? Especialistas alertam que, uma vez que essas tecnologias são desenvolvidas e integradas nos exércitos, será ainda mais difícil regulá-las. “Uma vez que as armas estão integradas nas estruturas de apoio militar, torna-se mais difícil renunciar a elas, porque contam com elas”, adverte Paul Scharre, especialista no tema. Estamos condenados a um futuro de guerra autônoma sem restrições?
Nem tudo está perdido. Os defensores da regulamentação apontam campanhas bem-sucedidas do passado, como a proibição das minas terrestres, como prova de que nunca é tarde demais para que os estados reconsiderem o uso de armas de guerra. Mary Wareham, diretora da Human Rights Watch, resume assim: “Não é tarde demais. Nunca é tarde demais, mas não quero chegar ao ponto em que digamos: ‘Quantos civis mais devem morrer antes de tomarmos medidas a respeito?'”
A pergunta que fica no ar é: seremos capazes de estabelecer regras eficazes antes que a IA na guerra se torne uma realidade irreversível? O relógio está correndo, e o futuro da guerra está em jogo.