Thank you for reading this post, don't forget to subscribe!
Guerra en Gaza, en Ucrania, la captura de Nicolás Maduro: la IA se ha convertido en un componente esencial en toda operación militar.
Por ahora se desconocen los usos concretos de la IA en el conflicto actual en Oriente Medio. Sin embargo, según los expertos, es probable que Israel y Estados Unidos -que han llevado a cabo miles de bombardeos contra Irán desde el inicio de la guerra el 28 de febrero- la hayan utilizado, especialmente para acelerar la realización de las operaciones.
Hoy en día, “todas las potencias militares importantes invierten enormemente en las aplicaciones militares de inteligencia artificial”, afirma Laure de Roucy-Rochegonde, del Instituto Francés de Relaciones Internacionales.
“Prácticamente todas las funciones militares pueden potenciarse con la IA”, agrega la investigadora, citando entre otras “la logística, el reconocimiento, la observación, la guerra de información, la guerra electrónica, la ciberseguridad”.
Aceleración de la “kill chain”
Además de su aplicación en drones de ataque y armas semiautomáticas, uno de los usos más conocidos de estas tecnologías es la reducción de lo que los militares llaman la “kill chain”, es decir, el tiempo entre la detección de un objetivo y el ataque.
El ejército estadounidense utiliza la plataforma Maven Smart System (MSS), creada por Palantir, que le permite identificar objetivos potenciales y clasificarlos jerárquicamente.
Según The Washington Post, el modelo IA de Anthropic, Claude, está integrado en Maven y aumenta sus capacidades de identificación y simulación.
Las empresas Palantir y Anthropic no respondieron a las solicitudes de AFP.
Los algoritmos “nos permiten procesar la información mucho más rápido y, sobre todo, ser más exhaustivos”, explica Bertrand Rondepierre, que dirige la agencia encargada de desarrollar la IA en el ejército francés (Amiad).
La IA permite analizar enormes cantidades de datos, “desde imágenes de satélite, radar, electromagnéticas, sonido, imágenes de drones, hasta videos en tiempo real en ocasiones”, agrega el ingeniero.
“¿Quién es responsable?”
El uso de la IA plantea sin embargo numerosas cuestiones morales y jurídicas, en particular sobre el control humano de estas tecnologías.
El debate surgió especialmente con la guerra en Gaza, donde los israelíes utilizaron un programa bautizado “Lavender” para identificar objetivos en el territorio palestino, con un margen de error.
Lavender pudo utilizarse en Gaza, según Laure de Roucy-Rochegonde, “porque se trataba de un territorio muy reducido” y estaba “asociado a un sistema de vigilancia en masa” de los habitantes del enclave costero. “Parece menos probable que un sistema de esta envergadura se haya implantado en Irán”, considera.
“Si algo sale mal, ¿quién es responsable?”, señala Peter Asaro, presidente de la oenegé Comité internacional para el control de las armas robotizadas.
Asaro citó el presunto bombardeo de una escuela en Irán, en la ciudad de Minab, que causó 150 muertos según las autoridades iraníes. Ni Estados Unidos ni Israel han reconocido ser los autores de este ataque, pero Washington dijo que está investigando.
La ONU exigió que la investigación sea “rápida” y “transparente”, y esperó que “los responsables rindan cuentas”.
Varios medios, entre ellos The New York Times, afirman que el edificio se encontraba cerca de dos emplazamientos de los Guardianes de la Revolución iraníes.
“No distinguieron la escuela de la base militar como deberían haber hecho (…) pero ¿quiénes son?”, se pregunta Peter Asaro. ¿Humanos o máquinas?
Si se utilizó la IA, la cuestión clave, según él, es saber “cuál es la antigüedad de los datos” empleados y si se trata de un “error de base de datos”.
“Confianza” y “control”
Para Bertrand Rondepierre, pensar que las IA “operan sin que nadie tenga el control” es “ciencia ficción”.
En Francia, “el mando militar está en el centro de la acción y de la concepción de estos sistemas”, señala.
“Ningún responsable militar aceptaría utilizar la IA si no tiene confianza y control sobre lo que hace”, agrega.
“Saben qué riesgos conlleva, cuáles son los márgenes de maniobra de estos sistemas y en qué contexto pueden utilizarlos, con qué nivel de confianza”, asegura Rondepierre.
El uso de la IA por parte de los ejércitos se encuentra, en cualquier caso, en una fase “muy inicial”, explica Benjamin Jensen, del centro de reflexión CSIS en Washington, que participó durante los últimos diez años en experimentos sobre la IA y la toma de decisiones militares.
Los ejércitos aún no han “replanteado fundamentalmente la forma en que planifican y llevan a cabo las operaciones para aprovechar al máximo estas innovaciones”, agrega. “Probablemente hará falta toda una generación para que comprendamos realmente cómo explotar todo esto”.








