Inteligencia artificial y guerra

Hoy es otro día negro en la larga lista de días negros que el planeta está viviendo. La guerra se extiende y, más que interesados en detenerla, parece que los dirigentes del mundo tienen sus miras puestas en el provecho que puede reportarles, ignorando la muerte y el sufrimiento de quienes las padecen.
Las guerras de hoy, y las que asoman en el horizonte, son guerras de fuertes contra débiles, como suelen serlo todas. Y, sin embargo, en un blog dedicado a la inteligencia artificial, no puedo dejar de notar que hay diferencias importantes. La carrera armamentística ha tomado un nuevo cariz, hasta el punto de que se habla de la actual guerra entre Israel y Hamas como de la “primera guerra de la inteligencia artificial”.
El sistema ‘Lavender’
Uno de los ejemplos más comentados expone hasta qué punto la inteligencia artificial está siendo utilizada como arma en el conflicto entre Israel y Hamás. Testimonios filtrados de oficiales de inteligencia israelíes pintan una imagen desoladora de cómo un sistema de IA, conocido como ‘Lavender’ (lavanda), se ha utilizado para identificar y atacar a presuntos operativos de Hamás en Gaza, lo que posiblemente ha provocadp la muerte de miles de civiles.
Lavender, desarrollado por la Unidad 8200 (cuerpo de élite especializado en inteligencia), ha generado una base de datos de decenas de miles de individuos clasificados como potenciales amenazas en función de sus supuestos vínculos con Hamas. Este perfilado algorítmico ha conducido, según el ejército israelí, a un aumento dramático en el ritmo y la escala de los ataques aéreos, con la Fuerza de Defensa de Israel (FDI) autorizando ataques contra áreas residenciales donde se creía que estaban presentes militantes sospechosos.
Sin embargo, se ha publicado en prensa que la FDI implementó una política de daños colaterales preautorizados que incluía cuotas para el número de bajas civiles consideradas aceptables en cada ataque, con cifras que han oscilado entre 15 y 20 dependiendo de la importancia percibida del objetivo.
El sistema ‘Habsora’
Junto a ‘Lavender’, Israel utiliza otro sistema para su ofensiva en Gaza. ‘Habsora’ (‘el Evangelio’)
analiza a gran velocidad datos de drones, comunicaciones interceptas y vigilancia, generando una lista constante de sospechosos de Hamas. El resultado: un incremento exponencial en los ataques aéreos, con el ejército israelí informando sobre 15.000 blancos impactados en apenas 35 días, cifras sin precedentes en conflictos anteriores.
Israel defiende la precisión de estos golpes guiados por IA, pero voces críticas cuestionan fervientemente este afán por la eficiencia. Se habla de un sistema que asigna una “puntuación de daño colateral”
a cada objetivo, anticipando cuántas vidas civiles se perderían en cada ataque. Algunos incluso describen un proceso como una “fábrica de asesinatos masiva”
, donde la velocidad eclipsa la capacidad de reflexión humana.
Sistemas autónomos de armas
Los sistemas mencionados no son los únicos: mucha de la tecnología militar, en particular la que se destina a tareas de inteligencia, está utilizando en mayor o menor medida algoritmos predictivos (por ejemplo, la ‘Cúpula de Hierro’ o ‘Edge 360’, de carácter defensivo). Lo más preocupante, quizá, es que el objetivo último de quienes los diseñan y fabrican consiste en llegar a lo que se denomina ‘sistemas autónomos de armas’, que se definen como plataformas que emplean inteligencia artificial para identificar, seleccionar y matar a sus objetivos sin intervención humana. Sus detractores los llaman ‘robots asesinos’, y piden su prohibición inmediata.
Estos dispositivos se utilizan hoy día. En la guerra de Ucrania, diferentes clases de drones han adquirido un protagonismo notable. Se ha hablado de sus capacidades, de las tecnologías tras ellos, de sus efectos en el campo de batalla.
El uso de la inteligencia artificial
La frontera entre un auxiliar tecnológico y un autómata letal se desvanece ante nuestros ojos como arena entre los dedos. La narrativa oficial de quienes diseñan y comercializan estas armas, nos vende la idea de una evolución necesaria en la defensa. Pero detrás de este progreso se esconde una verdad inquietante: estamos cediendo control sobre la vida y la muerte a máquinas programadas, a meros algoritmos sin alma ni conciencia que, y lo han demostrado sobradamente, pueden resultar impredecibles.
Cada vez está más cerca un panorama desolador: un tanque sin tripulación, un monstruo metálico recorriendo la estepa ucraniana, dejando tras de sí un rastro de destrucción indiscriminada. ¿Sería diferente si ese mismo tanque fuera controlado por un soldado desde una distancia segura? ¿La intención justifica los medios, o la ausencia de un hombre al volante convierte al acto en algo monstruoso?
La distinción entre defensa y ataque se vuelve borrosa cuando la decisión de disparar recae en un algoritmo, ajeno a emociones, miedos o remordimientos. ¿Quién define qué es legítimo defensa y qué es agresión cuando la lógica fría de la inteligencia artificial dictamina el destino de vidas humanas?
No hay respuestas fáciles a estas preguntas, porque la complejidad de esta cuestión desafía cualquier solución simplista. La inteligencia artificial es, como todas las herramientas, un instrumentos en manos de quien la utiliza. Pero es necesario plantearse una pregunta: ¿estamos dispuestos a entregar el poder de decidir quién vive y quién muere a manos de máquinas? ¿Lo hemos hecho ya?