En la era moderna, la inteligencia artificial (IA) se ha consolidado no solo como una tecnología comercial transformadora, sino también como una fuerza revolucionaria en la estrategia militar y las operaciones de inteligencia. Desde el análisis automatizado de enormes flujos de datos hasta simulaciones avanzadas de escenarios de batalla, la IA está transformando radicalmente la forma en que las naciones se preparan, participan y comprenden los conflictos. A medida que aumentan las tensiones entre las grandes potencias, especialmente entre Estados Unidos, Israel e Irán, tecnologías que antes se limitaban a los laboratorios de investigación se están desplegando ahora en primera línea y tras bambalinas en la seguridad global.
En este artículo, exploramos cómo la IA está influyendo en la inteligencia militar, la toma de decisiones y la futura conducción de la guerra, los riesgos asociados y las preocupaciones éticas, y qué significa esto para la estabilidad global.

Inteligencia artificial en el ámbito de la inteligencia: de la sobrecarga de datos a la información útil.
Una de las aplicaciones militares más tempranas y consolidadas de la IA ha sido la transformación de la forma en que se recopila, procesa y utiliza la inteligencia. El trabajo de inteligencia tradicional, que consiste en analizar imágenes satelitales, comunicaciones interceptadas, datos logísticos, inteligencia de señales y material de fuentes abiertas, siempre ha implicado enormes volúmenes de información. La IA sobresale precisamente en esto: detectar patrones a gran escala que los humanos no pueden.
Los sistemas de inteligencia actuales aprovechan el aprendizaje automático y las redes neuronales para:
- Identificar objetivos y rastrear movimientos utilizando imágenes de satélites y drones.
- Analizar las comunicaciones y las señales electrónicas para detectar anomalías o amenazas.
- Integrar fuentes de datos dispares (por ejemplo, redes sociales, datos de sensores, datos de movimiento) en panoramas estratégicos coherentes.
Estas capacidades no son especulativas. Su implementación histórica en conflictos como Ucrania y Gaza ha demostrado que las herramientas de IA pueden acelerar la identificación de objetivos y optimizar el conocimiento del terreno, reduciendo el tiempo entre la detección de una amenaza y la actuación en consecuencia. En algunos casos, estos sistemas se han integrado en los flujos de trabajo de mando y control para respaldar decisiones tácticas que antes dependían en gran medida de la interpretación humana.

Institución Hoover
En el contexto de las operaciones estadounidenses e israelíes, se utilizan habitualmente herramientas de análisis avanzado y de selección de objetivos con soporte de IA para examinar terabytes de datos de sensores, lo que ofrece a los comandantes información casi en tiempo real durante ataques complejos y contraoperaciones.
Simulaciones de IA, modelado de escenarios y soporte para la toma de decisiones
Un papel distintivo, pero cada vez más crucial, de la IA reside en la simulación de escenarios de conflicto, que consiste esencialmente en utilizar la inteligencia artificial para proyectar los resultados de diferentes decisiones estratégicas.
Investigaciones como COA-GPT demuestran este cambio: los modelos lingüísticos complejos, entrenados con contexto militar, pueden generar rápidamente planes de acción para los comandantes, con razonamiento estratégico y opciones de ajuste. En simulaciones controladas, estos planes generados por IA pueden reducir significativamente el tiempo necesario para considerar alternativas y perfeccionar los enfoques operacionales.
Más allá de la planificación, las simulaciones de IA se utilizan para explorar entornos de alto riesgo, como escenarios de escalada nuclear. Estudios independientes realizados con modelos avanzados como GPT-5.2, Claude y Gemini en simulaciones de guerra han demostrado que los sistemas de IA, al carecer de la cautela humana y el contexto histórico, suelen optar por una escalada agresiva, incluyendo despliegues nucleares tácticos, en la mayoría de las simulaciones virtuales. Esto sugiere que, si bien la IA puede acelerar la planificación estratégica, también puede tomar decisiones que, según los estándares humanos, se considerarían peligrosamente arriesgadas.
Esta dualidad, la IA como potenciador analítico y agente de decisiones impredecibles, subraya un desafío crucial para las instituciones militares: cómo aprovechar la velocidad y la profundidad de la IA sin ceder el control moral y estratégico esencial.
Inteligencia artificial en comunicaciones y guerra en red
Más allá de la inteligencia artificial y las simulaciones, la IA está transformando el funcionamiento de las comunicaciones en el campo de batalla. Los sistemas autónomos impulsados por IA gestionan ahora el intercambio seguro de datos en entornos conflictivos, optimizan las redes tácticas en tiempo real y coordinan recursos multidominio, como los vehículos aéreos no tripulados (VANT). Estas tecnologías emergentes permiten a las fuerzas armadas adaptarse a condiciones que cambian rápidamente con una latencia mínima, una ventaja clave en las campañas modernas.
En esencia, la IA transforma las comunicaciones, pasando de ser canales de información estáticos a redes adaptativas y predictivas capaces de sortear amenazas, detectar interferencias y respaldar decisiones de mando en tiempo real, lo que mejora el conocimiento de la situación y la capacidad de supervivencia.
Armamento autónomo y riesgos de escalada
Una de las intersecciones más controvertidas entre la IA y la guerra es el desarrollo de sistemas de armas autónomos. Se trata de plataformas, drones, sistemas de misiles y unidades terrestres robóticas capaces de seleccionar y atacar objetivos de forma independiente mediante inteligencia artificial.
El debate en torno a las armas autónomas es tanto ético como táctico. Los críticos argumentan que los sistemas totalmente autónomos pueden:
- Reducir el coste político de la guerra minimizando las bajas humanas entre los operadores.
- En las decisiones de vida o muerte, hay que ir más allá del juicio moral humano.
- Los conflictos se intensifican involuntariamente debido al razonamiento impredecible de la máquina.
La literatura académica subraya la preocupación de que las armas autónomas impulsadas por IA puedan reducir las barreras para los conflictos y aumentar el riesgo de inestabilidad geopolítica. En algunos escenarios, los sistemas de IA podrían optar por cursos de acción que los comandantes humanos convencionales evitarían, como el ataque nuclear táctico o el uso desproporcionado de la fuerza, debido a la falta de lógica ética o a los criterios de optimización más restrictivos de la máquina.
Estos riesgos no son abstractos. Reflejan inquietudes reales en los círculos de defensa y política sobre la conveniencia de poner decisiones de vida o muerte en manos de algoritmos, especialmente en entornos de alta tensión como Oriente Medio.
Política, ética y el ecosistema tecnológico militar-industrial.
Los recientes acontecimientos en Estados Unidos revelan un intenso debate entre la demanda militar de potentes herramientas de IA y las preocupaciones de la industria sobre las limitaciones éticas. Por ejemplo, el Pentágono ha presionado a las empresas de IA para que flexibilicen las restricciones de uso de sus modelos y permitan aplicaciones militares más amplias, incluidos los sistemas autónomos. En un sonado enfrentamiento, el estamento de defensa amenazó con utilizar la Ley de Producción de Defensa para obligar a las principales empresas de IA a cooperar, a pesar de la resistencia de los líderes, que alegaban limitaciones éticas en torno a la vigilancia masiva y el uso de armas autónomas.
Al mismo tiempo, algunas unidades de defensa ya están utilizando internamente herramientas de IA para operaciones clasificadas, lo que pone de manifiesto la importancia crucial que los gobiernos actuales otorgan a la IA para mantener la ventaja estratégica, especialmente en conflictos que involucran a adversarios de similar capacidad como Irán, China o Rusia.
Esta fricción entre los imperativos éticos y las exigencias estratégicas pone de relieve un dilema fundamental: ¿Quién controla la IA y en qué condiciones en materia de seguridad nacional?
Desinformación, percepción pública y el ciclo de retroalimentación de la IA
Si bien gran parte de la atención se centra en la IA militar, otra dimensión de la inteligencia y el conflicto se desarrolla en el ámbito de la información. Plataformas como las redes sociales se han visto inundadas de contenido generado por IA durante importantes eventos geopolíticos, difuminando la línea entre la información veraz y las narrativas fabricadas. Por ejemplo, tras los recientes ataques entre Estados Unidos e Israel, el contenido generado o manipulado por IA proliferó ampliamente, dificultando la verificación de noticias e influyendo en la percepción pública.
Esto demuestra que la IA no es solo una herramienta para la planificación estratégica o la inteligencia en el campo de batalla, sino que también está transformando la lucha por la narrativa y la verdad. En futuros conflictos, la guerra de información impulsada por herramientas de IA podría llegar a ser tan importante como los enfrentamientos armados.
De cara al futuro: ¿Sinergia entre humanos e IA o dominio de la IA?
Varias tendencias generales apuntan a la futura integración de la IA en los conflictos globales:
- La IA seguirá acelerando el análisis de inteligencia, lo que permitirá obtener información más rápida y profunda de la que pueden producir los equipos humanos por sí solos.
- Los sistemas de apoyo a la toma de decisiones adquirirán mayor influencia, pudiendo asesorar o incluso moldear la estrategia militar en tiempo real.
- Los sistemas autónomos y conectados en red proliferarán, alterando la naturaleza del mando y control.
- Los debates éticos y los marcos de gobernanza tendrán dificultades para seguir el ritmo de la adopción tecnológica.
La cuestión fundamental a la que se enfrentan los responsables políticos, los líderes militares y los tecnólogos no es si la IA formará parte de la guerra, sino cómo garantizar que la IA se utilice de forma responsable, bajo una supervisión humana significativa y con normas globales que prevengan resultados catastróficos.
Como demuestran los acontecimientos recientes, las naciones que dominen la IA en inteligencia y operaciones tendrán una ventaja decisiva, pero sin las debidas salvaguardias, las mismas herramientas que mejoran la comprensión también podrían aumentar la inestabilidad.