...

Información para decidir con libertad

Apoya el periodismo independiente

La IA está acelerando la Guerra en Irán y conlleva riesgos letales, advierte Financial Times

El Pentágono ha transformado radicalmente la toma de decisiones militares, logrando un ritmo de ataques sin precedentes que desafía las capacidades de supervisión humana

La integración de la inteligencia artificial en el campo de batalla ha dejado de ser una promesa de ciencia ficción para convertirse en el motor invisible, pero letal, de la actual guerra en Irán.

Según un exhaustivo reporte de Financial Times, el Pentágono ha transformado radicalmente la toma de decisiones militares, logrando un ritmo de ataques sin precedentes que desafía las capacidades de supervisión humana y los límites del derecho internacional.

La magnitud del cambio se refleja en las cifras: mientras que en la campaña contra el ISIS la coalición tardó seis meses en atacar 2 mil objetivos, en el actual conflicto en Irán, Estados Unidos alcanzó ese mismo número en tan solo cuatro días.

Este salto exponencial es impulsado por sistemas que filtran torrentes de datos provenientes de drones, satélites y sensores, generando opciones de ataque a una velocidad que la planificación tradicional simplemente no puede igualar.

Como explica Jessica Dorsey, investigadora de la Universidad de Utrecht: "Eso ilustra la escala y velocidad de ejecución del objetivo".

En el centro de esta maquinaria se encuentra el Maven Smart System de Palantir, que actúa como el "cerebro" del software durante las operaciones en vivo.

Este sistema, en combinación con modelos de lenguaje avanzados como Claude de Anthropic, ha permitido que la IA pase de ser una herramienta de resumen de datos a una de razonamiento complejo.

Louis Mosley, responsable de Palantir en el Reino Unido y Europa, destaca a FT que estos "modelos de frontera" son cruciales porque ahora consideran los problemas paso a paso, lo que ha permitido un "gran salto en el volumen de decisiones y en la velocidad con la que el personal militar puede tomar esas decisiones".

Sin embargo, esta aceleración de la "cadena de muerte" —el proceso de encontrar, fijar y atacar un objetivo— conlleva riesgos humanitarios profundos.

La tecnología diseñada para reducir tiempos de respuesta de horas a segundos parece estar operando en un vacío de rendición de cuentas.

Dorsey plantea una interrogante inquietante sobre la opacidad de estos procesos: "¿Cómo se levanta el velo de un sistema que hace 37 millones de cálculos por segundo? ¿Cómo demonios podrías siquiera rastrear eso de alguna manera?".

La experta entrevistada por el diario británico cuestiona si es posible ejercer un control y juicio humano "apropiado al contexto" sobre decisiones generadas por algoritmos a tal velocidad.

El costo humano de esta eficiencia algorítmica ya es visible. El bombardeo de una escuela primaria de niñas en Minab, al sur de Irán, se ha convertido en un sombrío recordatorio de los peligros de los objetivos mal verificados.

Aunque no se ha confirmado el grado exacto de intervención de la IA en ese ataque específico, el incidente subraya la falibilidad de la tecnología en el caos de la guerra.

Un exalto funcionario de defensa estadounidense, bajo condición de anonimato, reflexionó sobre este fallo en el reportaje: "Me gustaría creer que la IA puede señalar fallos como este, en teoría. Desafortunadamente, el combate nunca es tan impecable como la tecnología está diseñada para ser".

La ofensiva no solo ha golpeado infraestructuras militares. Según datos de la Media Luna Roja de Irán, más de 20 mil edificios no militares han sido impactados, incluyendo más de 17 mil residencias.

Este nivel de destrucción masiva sugiere que el uso de IA generativa para compilar listas de objetivos —una tarea que antes era lenta y laboriosa— está permitiendo a los ejércitos operar a una escala que supera cualquier antecedente histórico, según advierte Sophia Goodfriend, investigadora de la Universidad de Cambridge entrevistada por FT.

A medida que el sistema Maven se expande, con proyecciones de alcanzar a 50 mil usuarios en Estados Unidos y su próxima integración en la OTAN para 2025, el debate ético se intensifica.

La reciente disputa entre Anthropic y el Pentágono sobre los límites del uso militar de la IA pone de relieve la tensión entre la eficacia táctica y la seguridad global.

Mientras líderes militares como el vicealmirante Frank Whitworth aspiran a tomar "Mil decisiones de alta calidad" por hora, el mundo observa con cautela cómo el juicio humano es desplazado por un código que, aunque razonamiento puro en bits, carece de la capacidad de comprender el peso moral de un error en el terreno.

También te puede interesar

Teherán despierta bajo lluvia contaminada tras nuevos bombardeos israelíes en el décimo día de guerra - La Aurora de México