El Auge de la IA en las Operaciones Militares: Lo que Significa
2026-03-30
El 28 de febrero de 2026, Estados Unidos e Israel lanzaron la Operación Epic Fury — atacando más de 1,000 objetivos dentro de Irán en las primeras 24 horas, casi el doble del ritmo de la campaña de shock y asombro de 2003 en Irak.
La diferencia, según el Pentágono, fueGuerra de IA. El Sistema Inteligente Maven, construido sobre la infraestructura de datos de Palantir y potenciado en parte por Claude de Anthropic, comprimió los plazos de segmentación que antes tomaban horas en segundos.
El almirante Brad Cooper, jefe del Comando Central de EE. UU., lo expresó claramente: las herramientas avanzadas de inteligencia artificial permiten a los líderes "cortar el ruido y tomar decisiones más inteligentes más rápido de lo que el enemigo puede reaccionar."
Pero horas después de la misma operación, un misil de crucero Tomahawk golpeó la escuela primaria de niñas Shajareh Tayyebeh en Minab, al sur de Irán, matando al menos a 168 personas, más de 100 de ellas niños menores de 12 años.
La escuela había estado separada de una base naval del IRGC adyacente desde 2016, pintada visiblemente de azul y rosa con campos deportivos en el asfalto y una presencia activa en las redes sociales. La propia investigación preliminar del ejército de EE. UU. encontró que el ataque probablemente se basó en datos de objetivo desactualizados.
Ese único incidente se ha convertido desde entonces en el estudio de caso definitorio de lo que realmente significa la inteligencia artificial en la guerra — tanto su capacidad como sus modos de fallo catastrófico.
Conclusiones Clave
- El ejército de EE. UU. utilizó herramientas de inteligencia artificial de orientación, incluido el Sistema Inteligente Maven, para atacar más de 1,000 objetivos dentro de Irán en 24 horas, el doble de la velocidad operativa de la campaña de Irak de 2003.
- Una investigación preliminar del Pentágono encontró que el ataque aéreo a la escuela de Minab del 28 de febrero, que mató al menos a 168 civiles, en su mayoría niños, fue probablemente causado por información desactualizada recopilada por humanos que se introdujo en el sistema de objetivos — no por un mal funcionamiento de la IA.
- Una resolución de la ONU aprobada en diciembre de 2025 y una reunión multilateral de tres días planificada para junio de 2026 son los primeros pasos formales hacia la gobernanza internacional de la IA en conflictos armados, pero un marco vinculante sigue siendo poco probable a corto plazo.
Comercie con confianza. Bitrue es una plataforma segura y de confianza. plataforma de comercio de criptomonedaspara comprar, vender e intercambiar Bitcoin y altcoins.
Regístrate ahora para reclamar tu premio¡
Cómo se está utilizando la IA en el campo de batalla
La imagen pública de la IA en la guerra moderna tiende a oscilar entre la ciencia ficción y la negación. La realidad es más específica. El Sistema Inteligente Maven del Pentágono utiliza IA para fusionar datos de imágenes satelitales, fuentes de sensores e inteligencia de señales en recomendaciones de selección rápida.
Según Daniel Rothenberg, co-director de la Universidad Estatal de Arizona, lo que antes requería horas de análisis humano ahora toma minutos.
Las operaciones de drones se benefician de manera diferente: la IA permite la navegación autónoma cuando el embrollo electrónico hace que el control humano remoto sea imposible, y habilita la coordinación de enjambres que un operador nunca podría gestionar manualmente.
Los sensores orbitales de la Fuerza Espacial ahora detectan lanzamientos de misiles balísticos iraníes en milisegundos utilizando el reconocimiento de firma infrarroja, proporcionando cálculos de intercepción a sistemas de defensa automatizados antes de que un analista humano haya leído la primera alerta.
Estos no son despliegues experimentales. Son realidades operativas confirmadas por funcionarios militares de EE. UU. durante operaciones de combate activas en febrero y marzo de 2026.
Leer también:¿Puede la IA predecir cómo se mueve el mercado de valores?
La Huelga Escolar de Minab: Lo Que Dicen los Datos
Los hechos en torno a Minab han sido reconstruidos por múltiples investigaciones independientes. La escuela Shajareh Tayyebeh se encontraba a menos de 100 yardas de una instalación naval del CGRI — un sitio que había sido parte del mismo complejo hasta que se erigió un muro entre 2013 y 2016.
Para febrero de 2026, el estatus civil del edificio era claramente visible en imágenes satelitales de código abierto: paredes pintadas, un campo deportivo, tres entradas públicas y años de actividad escolar documentada en línea.

La Agencia de Inteligencia de Defensa nunca había actualizado su clasificación del sitio. Cuando CENTCOM generó las coordenadas de ataque, se basó en ese registro obsoleto.
Antiguos funcionarios militares confirmaron a Semafor que el error fue de origen humano, específicamente, datos desactualizados alimentados en la plataforma Maven. La IA procesó y ejecutó la información que se le proporcionó con precisión.
El exdirector de inteligencia del CENTCOM, el teniente general Karen Gibson, enmarcó el principio de responsabilidad de manera directa: "Un comandante en algún lugar será finalmente responsable, no una máquina o un ingeniero de software". Pero Human Rights Watch argumentó que este enfoque no aborda el problema estructural.
Los flujos de trabajo más rápidos y la generación de objetivos asistida por IA crean ventanas de revisión comprimidas. La velocidad que hace que la IA sea valiosa en la guerra es la misma cualidad que puede convertir una entrada de base de datos obsoleta en un ataque catastrófico antes de que cualquier intervención humana detecte el error.
Leer también:Oro en 2026: La Última Cobertura Macro-Geopolítica
La Brecha de Gobernanza que Nadie Ha Resuelto Aún
El caso Minab sacó a la luz una estructura de rendición de cuentas que no ha mantenido el ritmo con la tecnología que gobierna. Más de 120 demócratas de la Cámara escribieron al secretario de Defensa Pete Hegseth exigiendo respuestas sobre el papel de la IA en la selección de objetivos.
El Ministerio de Defensa de China advirtió públicamente contra la "aplicación ilimitada de la IA por parte de los militares", calificándola como un riesgo de "huida tecnológica".
La tensión dentro del gobierno de EE. UU. se hizo visible cuando el Pentágono dejó de lado a Anthropic, uno de sus principales proveedores de IA, solo un día antes del lanzamiento de la Operación Epic Fury, debido a un desacuerdo sobre las restricciones en los sistemas autónomos.
Una resolución de la ONU aprobada en diciembre de 2025 sobre la IA en el ámbito militar es la respuesta internacional más concreta hasta ahora. Abre un proceso multilateral, con una reunión de partes interesadas programada para junio de 2026 para desarrollar mejores prácticas compartidas.
La evaluación de Chatham House es franca: un marco internacional vinculante es poco probable en el corto plazo, pero desarrollar reglas internas está en el propio interés de los ejércitos.
El problema central, como lo identificó el análisis de gobernanza de TNGlobal, es que "la capacidad ha avanzado más rápido que la responsabilidad" — y que un procesamiento más rápido no corrige la inteligencia obsoleta, mejores modelos no resuelven la verificación débil, y la presencia de un paso de aprobación humana no es suficiente si ese humano está trabajando a partir de entradas defectuosas a la velocidad de la máquina.
Conclusión
El conflicto en Irán de 2026 ha hecho algo que años de debate académico no pudieron: ha hecho que los riesgos deLa IA en la guerra modernaimposible de abstraer. Un sistema que permitió 1,000 huelgas en 24 horas también alimentó una huelga en una escuela que había sido una escuela durante una década. La IA no falló en ningún sentido técnico.
Los datos con los que trabajó eran incorrectos. Esa distinción importa enormemente para cómo los militares, los gobiernos y el público piensan sobre lo que realmente significa "supervisión humana" en una cadena de objetivos habilitada por inteligencia artificial.
La supervisión que ocurre en la etapa de aprobación final, pero después de que la IA ya ha determinado qué objetivos son visibles y cuáles son filtrados, es estructuralmente incompleta. La reunión de la ONU en junio de 2026 no producirá un tratado vinculante.
Pero la investigación sobre Minab, las cartas del congreso, la disputa entre Anthropic y el Pentágono, y las advertencias públicas de China han desplazado colectivamente el centro de gravedad de este debate.Decisiones en el campo de batalla de la IA
Ya no es una preocupación del futuro. La cuestión de la gobernanza es si la responsabilidad puede ponerse al día con el despliegue, y la evidencia actual sugiere que va detrás.
Leer también:3 Modelos de IA Predicen el Precio de BlockDag en 2026: ¿Ofrece Beneficios?
FAQ
¿Qué es el Proyecto Maven y cómo se utiliza en operaciones de combate?
El Proyecto Maven es el programa insignia de inteligencia artificial militar del Pentágono, lanzado inicialmente en 2017 para utilizar el aprendizaje automático en el procesamiento de imágenes de vigilancia de drones. Para 2026, había evolucionado hacia el Sistema Inteligente Maven, una plataforma más amplia de fusión de inteligencia y orientación que integra imágenes satelitales, datos de sensores e inteligencia de señales para generar y priorizar paquetes de ataque a gran velocidad.
Dos fuentes anónimas confirmaron a NBC News que la implementación de Maven por parte de Palantir, que incorpora a Claude de Anthropic, se utilizó activamente para la identificación de objetivos durante la Operación Epic Fury en Irán.
¿Causó la IA la huelga escolar de Minab que mató a 168 personas?
Según la investigación preliminar del ejército de EE. UU. y múltiples análisis independientes, la IA no seleccionó de forma independiente la escuela como objetivo. La causa probable fue que el sitio seguía clasificado como un objetivo militar de la IRGC en las bases de datos de la Agencia de Inteligencia de Defensa, una clasificación que nunca se actualizó después de que la escuela fue físicamente separada de la base adyacente en 2016.
El sistema de IA procesó y actuó sobre esos datos humanos curados que estaban desactualizados. Exoficiales militares confirmaron a Semafor que "los humanos — no la IA — son los culpables", pero críticos, incluyendo Human Rights Watch, argumentan que el flujo de trabajo asistido por IA, comprimido, dejó tiempo insuficiente para que la revisión humana detectara el error.
¿Está la IA tomando decisiones autónomas de vida o muerte en la guerra?
No aún, según declaraciones oficiales. Tanto el Almirante Cooper de CENTCOM como el portavoz principal del Pentágono, Sean Parnell, han declarado públicamente que los humanos toman todas las decisiones finales sobre ataques letales. Lauren Kahn del Centro para la Seguridad y la Tecnología Emergente confirmó a NPR que "la IA no está tomando decisiones sobre quién vive y quién muere en este momento."
Sin embargo, la velocidad y el volumen a los que opera la orientación asistida por IA — 1,000 objetivos en 24 horas — plantea preguntas estructurales sobre cuán significativo puede ser el análisis humano a ese ritmo, una preocupación compartida por los miembros del Comité de Servicios Armados del Senado.
¿Qué reglas internacionales rigen el uso de la IA en la guerra?
El marco internacional principal es la resolución de la ONU sobre "Inteligencia artificial en el ámbito militar y sus implicaciones para la paz y la seguridad internacionales", aprobada en diciembre de 2025. Fomenta la discusión multilateral y abre un proceso formal de partes interesadas, con una reunión de tres días programada para junio de 2026. Sin embargo, no es vinculante.
Las leyes del conflicto armado —incluyendo el Derecho Internacional Humanitario y las Convenciones de Ginebra— se aplican técnicamente a todas las operaciones asistidas por IA, pero como señaló Chatham House, hay un debate creciente sobre si la IA introduce dimensiones que requieren reglas adicionales que gobiernen específicamente la selección autónoma de objetivos.
¿Cómo debería la gobernanza de la IA en el ámbito militar ponerse al día con el despliegue actual?
Los académicos de defensa y expertos independientes están coincidiendo en varios requisitos específicos: protocolos de frescura de datos obligatorios para evitar que la inteligencia desactualizada sea procesada a velocidad operativa, la auditoría de flujos de trabajo para que las investigaciones posteriores a un incidente puedan rastrear exactamente qué salidas de IA moldearon qué decisiones humanas, umbrales de escalado claros que definan cuándo las recomendaciones de IA requieren revisión humana adicional, y estándares de trazabilidad posterior al incidente.
El análisis de gobernanza de TNGlobal argumentó que "la presencia de un paso formal de aprobación" no es suficiente; la calidad de todo el proceso, desde la entrada de información hasta la autorización final, determina la responsabilidad real, no solo la última firma humana en la cadena.
Las opiniones expresadas pertenecen exclusivamente al autor y no reflejan las opiniones de esta plataforma. Esta plataforma y sus afiliados declinan cualquier responsabilidad por la exactitud o idoneidad de la información proporcionada. Es solo para fines informativos y no está destinado a ser un consejo financiero o de inversión.
Descargo de responsabilidad: El contenido de este artículo no constituye asesoramiento financiero o de inversión.




