¿Cómo sería una guerra en la que las máquinas toman decisiones de vida o muerte? Bienvenido al inquietante presente de la inteligencia artificial en el campo de batalla. Imagina un escenario donde un escuadrón de soldados, acorralado por el fuego enemigo, solicita apoyo y, en cuestión de segundos, una flota de drones autónomos surca el cielo en busca de objetivos. Estos pequeños pero letales dispositivos, equipados con explosivos y guiados por IA, se infiltran en edificios, escanean el terreno y, con una precisión escalofriante, eliminan las amenazas una por una.
Este escenario, que podría parecer extraído de una película de ciencia ficción, es ya una realidad en desarrollo. Las armas autónomas impulsadas por IA están dejando de ser una posibilidad futura para convertirse en una realidad presente en los conflictos armados actuales. ¿Pero qué implicaciones tiene esto para el futuro de la guerra y la humanidad en general?
La guerra en Ucrania se ha convertido en un sombrío campo de pruebas para estas nuevas tecnologías. El ejército ucraniano ha empleado drones equipados con IA y explosivos para atacar refinerías de petróleo rusas, mientras que los estadounidenses han utilizado sistemas de IA para identificar objetivos en Siria y Yemen. Quizás más alarmante aún es el caso de las Fuerzas de Defensa de Israel, que emplearon un sistema de selección de objetivos basado en IA para etiquetar a unos 37.000 palestinos como presuntos militantes durante las primeras semanas de su guerra en Gaza.
La confluencia de conflictos globales y avances tecnológicos ha actuado como un catalizador para el desarrollo de la IA en la guerra. Los expertos advierten que esta tendencia no solo está acelerando la adopción de estas tecnologías, sino que también está poniendo de manifiesto la falta de regulación en este campo emergente. ¿Estamos preparados para las consecuencias éticas y prácticas de ceder decisiones de vida o muerte a las máquinas?
Gigantes tecnológicos y startups: los nuevos señores de la guerra
¿Quién hubiera imaginado que las empresas que diseñan nuestros smartphones y redes sociales serían también las arquitectas de los sistemas de guerra del futuro? La creciente demanda militar de tecnologías de IA ha desencadenado una auténtica fiebre del oro en Silicon Valley y más allá. Empresas tecnológicas y startups de defensa se han lanzado a una carrera frenética por desarrollar y comercializar sistemas de armas autónomos, convirtiendo este sector en un negocio multimillonario.
¿Estamos preparados para un futuro en el que las empresas que gestionan nuestros datos personales también tengan el poder de decidir sobre la vida y la muerte en los campos de batalla?
Tomemos como ejemplo a Anduril, una startup fundada por Palmer Luckey, un joven multimillonario de 31 años conocido por su peculiar estilo de vestir con camisas hawaianas. Esta empresa está desarrollando drones de ataque autónomos letales, aviones de combate no tripulados y vehículos submarinos. Con una valoración estimada de 12.500 millones de dólares, Anduril ya ha conseguido contratos importantes con el Pentágono.
Pero Anduril no está sola en esta carrera. Palantir, otra gigante tecnológica, ha obtenido un contrato de 480 millones de dólares con el Pentágono para su tecnología de IA que ayuda a identificar objetivos hostiles. Estas empresas no solo están desarrollando tecnología, sino que están redefiniendo la forma en que se libran las guerras modernas.
El panorama se vuelve aún más complejo cuando consideramos la participación de las grandes empresas tecnológicas. Google, por ejemplo, tras enfrentarse a protestas de sus empleados en 2018 por su participación en el Proyecto Maven del ejército, ha cambiado de rumbo. Recientemente, firmó un acuerdo de 1.200 millones de dólares con el gobierno y el ejército israelí para proporcionar servicios de computación en la nube y capacidades de inteligencia artificial. ¿Cómo afectará esto a la percepción pública de estas empresas?
La ironía no escapa a nadie: las mismas empresas que diseñan las aplicaciones que usamos a diario están ahora a la vanguardia del desarrollo de sistemas de armas autónomos. Esta convergencia entre el mundo tecnológico civil y militar plantea preguntas inquietantes. ¿Estamos preparados para un futuro en el que las empresas que gestionan nuestros datos personales también tengan el poder de decidir sobre la vida y la muerte en los campos de batalla?
El dilema ético: ¿quién toma las decisiones letales?
Imagina por un momento que eres un soldado en el campo de batalla. Un dron autónomo ha identificado un objetivo potencial. ¿Confiarías ciegamente en su decisión? ¿O preferirías tener la última palabra? Este escenario hipotético ilustra uno de los debates más candentes en torno a la IA en la guerra: el concepto del «humano en el circuito».
La idea de mantener a un ser humano involucrado en las decisiones críticas suena reconfortante, ¿verdad? Sin embargo, la realidad es mucho más compleja. Como señala Rebecca Crootof, experta en guerra autónoma de la Universidad de Richmond, «todo el mundo puede estar de acuerdo con este concepto, mientras que simultáneamente todos pueden discrepar sobre lo que realmente significa en la práctica». ¿Es suficiente que un humano simplemente supervise el sistema? ¿O debe tomar activamente cada decisión final?
La analogía con los coches autónomos nos ofrece una perspectiva interesante. Si un coche autónomo cede el control a un humano momentos antes de un accidente, ¿quién es el responsable?
Este dilema se magnifica exponencialmente cuando hablamos de decisiones de vida o muerte en un contexto militar. ¿Estamos creando lo que los investigadores llaman una «zona de colapso moral«, donde colocamos humanos en el asiento del conductor solo para tener a alguien a quien culpar cuando las cosas salen mal?
La falta de transparencia en estos sistemas autónomos agrava aún más el problema ético. Cuando los gobiernos implementan tecnologías de IA ya de por sí secretas y propietarias en el mundo clandestino de la seguridad nacional, se crea lo que la profesora de derecho Ashley Deeks llama una «doble caja negra». Este oscurantismo hace extremadamente difícil para el público saber si estos sistemas están operando de manera correcta o ética.
Un caso alarmante que ilustra los peligros de esta opacidad es el uso por parte del ejército israelí de un sistema de IA para determinar objetivos de ataques aéreos, aun sabiendo que el software cometía errores en aproximadamente el 10% de los casos. ¿Cuántas vidas inocentes podrían estar en juego debido a estos márgenes de error? ¿Y quién asume la responsabilidad cuando algo sale mal?
Estas preguntas no son meramente académicas. A medida que la IA se integra cada vez más en los sistemas militares, la línea entre la decisión humana y la máquina se vuelve cada vez más borrosa. ¿Estamos preparados como sociedad para lidiar con las consecuencias éticas y morales de delegar decisiones de vida o muerte a algoritmos?
¿Podemos controlar la IA en la guerra?
En abril de este año, representantes de 143 países se reunieron en Viena para discutir la regulación del uso de la IA y las armas autónomas en la guerra. Pero, ¿llegamos demasiado tarde?
El ministro de Asuntos Exteriores de Austria, Alexander Schallenberg, hizo un llamamiento desesperado: «Al menos asegurémonos de que la decisión más profunda y de mayor alcance, quién vive y quién muere, permanezca en manos de los humanos y no de las máquinas». Este ruego refleja la urgencia de la situación. Organizaciones como el Comité Internacional de la Cruz Roja y Stop Killer Robots llevan más de una década abogando por prohibiciones específicas y reglas generales para gobernar esta tecnología. Pero, ¿por qué ha sido tan difícil llegar a un acuerdo?
La respuesta radica en la resistencia de los principales actores en este campo. Rusia, China, Estados Unidos, Israel, India, Corea del Sur y Australia se oponen a cualquier nueva ley internacional sobre armas autónomas. ¿Sorprendido? No deberías estarlo. Estos países son los principales creadores y usuarios de esta tecnología. ¿Cómo podemos esperar que renuncien a lo que consideran una ventaja estratégica crucial?
Pero el problema va más allá de los gobiernos. Las empresas de defensa y sus influyentes propietarios también están presionando contra las regulaciones. Palmer Luckey, fundador de Anduril, ha hecho compromisos vagos sobre mantener un «humano en el circuito» en la tecnología de su empresa, mientras se opone públicamente a la regulación y las prohibiciones de armas autónomas. Alex Karp, CEO de Palantir, va aún más lejos, caracterizando las armas autónomas y la IA como una carrera global por la supremacía contra adversarios geopolíticos como Rusia y China.
¿Y qué pasa con el futuro? Los expertos advierten que una vez que estas tecnologías se desarrollan e integran en los ejércitos, será aún más difícil regularlas. «Una vez que las armas están integradas en las estructuras de apoyo militar, se vuelve más difícil renunciar a ellas, porque cuentan con ellas«, advierte Paul Scharre, experto en el tema. ¿Estamos condenados a un futuro de guerra autónoma sin restricciones?
No todo está perdido. Los defensores de la regulación señalan campañas exitosas del pasado, como la prohibición de las minas terrestres, como prueba de que nunca es demasiado tarde para que los estados reconsideren el uso de armas de guerra. Mary Wareham, directora de Human Rights Watch, lo resume así: «No es demasiado tarde. Nunca es demasiado tarde, pero no quiero llegar al punto en que digamos: ‘¿Cuántos civiles más deben morir antes de que tomemos medidas al respecto?'»
La pregunta que queda en el aire es: ¿seremos capaces de establecer reglas efectivas antes de que la IA en la guerra se convierta en una realidad irreversible? El reloj está en marcha, y el futuro de la guerra está en juego.