Un informe revela que algoritmos de inteligencia artificial utilizados en escenarios bélicos generaron errores significativos en la identificación de blancos y movimientos, comprometiendo la objetividad de las decisiones.
El despliegue de sistemas de inteligencia artificial en operaciones en Medio Oriente registró una serie de errores de interpretación que afectaron las tácticas terrestres. Según el informe Artificial Intelligence in Modern Warfare 2026, los algoritmos de predicción fallaron en identificar correctamente movimientos de tropas, con un margen de error que alcanzó el 40% en las proyecciones de combate.
El documento confirmó que, en varios casos, los sistemas proporcionaron respuestas que se alineaban con las ideas preconcebidas de los comandantes, en lugar de reflejar la realidad del campo de batalla. Esto llevó a que el mando militar ordenara desplazamientos hacia sectores donde no había presencia enemiga.
Los procesadores ignoraron señales térmicas reales y las reemplazaron por proyecciones basadas en datos previos al conflicto, lo que eliminó la objetividad necesaria para la toma de decisiones bajo presión. El riesgo de una escalada involuntaria aumentó cuando un sistema de alerta temprana interpretó erróneamente un convoy civil como una batería de misiles móviles.
Expertos señalan que la falta de diversidad en los datos de entrenamiento para entornos desérticos y urbanos de la región redujo la precisión de los modelos. Sistemas entrenados en laboratorios no computaron adecuadamente tácticas de mimetismo o camuflaje.
Un documento de la Global Tech Oversight indicó que “los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar”. La IA demostró ser incapaz de discernir, por ejemplo, entre una retirada táctica y una posible emboscada.
El fenómeno se volvió sistemático en las interfaces de realidad aumentada de los soldados de infantería, donde cascos inteligentes proyectaron marcadores de enemigos inexistentes debido a fallas en la integración de sensores. Ante estos problemas, los mandos operativos decidieron desactivar los módulos de predicción de comportamiento tras detectar que la IA inventaba rutas de escape para el enemigo que no existían en la topografía real, generándolas solo para completar sus modelos de probabilidad.
