El ataque de Trump a Irán y la nueva generación de guerras de IA significan que las bombas pueden caer más rápido que la velocidad del pensamiento

La IA ha entrado en la sala de guerra y, según los expertos, no va a irse en mucho tiempo.

Video recomendado


A pesar de que el presidente Donald Trump ordenó a las agencias federales y contratistas militares cesar negocios con Anthropic, se informa que las fuerzas armadas de EE. UU. utilizaron el modelo de IA de la compañía, Claude, en su ataque a Irán, según The Wall Street Journal.

Ahora, algunos expertos están planteando preocupaciones sobre el uso de la IA en operaciones bélicas. “La máquina de IA está haciendo recomendaciones sobre qué atacar, lo cual en algunos aspectos es mucho más rápido que el pensamiento humano,” dijo Craig Jones, autor de The War Lawyers: The United States, Israel, and Juridical Warfare, que examina el papel de los abogados militares en la guerra moderna, al Guardian.

En una entrevista con Fortune, Jones, profesor en la Universidad de Newcastle en temas de guerra y conflicto, afirmó que la IA ha acelerado enormemente la “cadena de muerte,” comprimiendo el tiempo desde la identificación inicial del objetivo hasta la destrucción final. Dijo que los ataques de EE. UU. e Israel contra Irán, que resultaron en la muerte del ayatolá Ali Khamenei, quizás no habrían ocurrido sin la IA.

“Sería imposible, o casi imposible, hacerlo de esa manera,” dijo Jones a Fortune. “La rapidez con la que se llevó a cabo, y la magnitud y volumen de los ataques, creo que están habilitados por IA.”

El Pentágono ha solicitado la ayuda de empresas de IA para acelerar y mejorar la planificación bélica, formando una asociación con Anthropic en 2024 que se desmoronó la semana pasada debido a desacuerdos sobre el uso del modelo de IA de la compañía, Claude. Pero OpenAI rápidamente firmó un acuerdo con el Pentágono, y xAI, de Elon Musk, alcanzó un acuerdo para usar el modelo de IA de la compañía, Grok, en sistemas clasificados. Además, el Ejército de EE. UU. utiliza el software de la firma de minería de datos Palantir para obtener insights habilitados por IA para la toma de decisiones.

IA en el campo de batalla

Jones afirmó que la Fuerza Aérea de EE. UU. ha utilizado la “velocidad del pensamiento” como referencia para el ritmo de toma de decisiones durante años. Dijo que el tiempo desde la recopilación de inteligencia, como reconocimiento aéreo, hasta la ejecución de una misión de bombardeo, podía tomar hasta seis meses durante la Segunda Guerra Mundial y la Guerra de Vietnam. La IA ha comprimido significativamente esa línea de tiempo.

El papel clave de las herramientas de IA en la sala de guerra es analizar rápidamente grandes cantidades de datos. “Estamos hablando de terabytes y terabytes y terabytes de datos,” dijo Jones, “todo, desde imágenes aéreas, inteligencia humana, inteligencia en internet, rastreo de teléfonos móviles, cualquier cosa y todo.”

Amir Husain, coautor de Hyperwar: Conflict and Competition in the AI Century, afirmó que la IA se está usando para comprimir el marco de decisión militar de EE. UU., conocido como el ciclo OODA—observar, orientar, decidir y actuar. Dijo que la IA ya juega un papel importante en la observación, o en la interpretación de datos satelitales y electrónicos, en decisiones tácticas, y en la fase de “actuar,” específicamente a través de drones autónomos que deben operar sin guía humana cuando las señales son interferidas. Algunos de esos drones son en realidad copias de los propios drones autónomos Shahed de Irán.

La IA también ha aparecido en otros campos de batalla. Se informa que Israel utilizó IA para identificar objetivos de Hamas durante la guerra Israel-Hamas. Y los drones autónomos están en las líneas frontales en la guerra Rusia-Ucrania, con Rusia y Ucrania empleando alguna variación de tecnología autónoma.

Multiplicación de riesgos

Sin embargo, Jones señaló varias preocupaciones sobre la guerra habilitada por IA. “El problema cuando añades IA es que multiplicas, por órdenes de magnitud, los grados de error,” dijo Jones.

Para estar seguros, Jones afirmó que el error humano existe con o sin tecnología de IA, citando la invasión de Irak en 2003 como un conflicto basado en inteligencia defectuosa. Pero dijo que la IA podría agravar esos errores debido a la magnitud de datos que analiza la tecnología.

También hay una serie de cuestiones éticas que plantea la guerra con IA, principalmente en torno a la responsabilidad, algo que Husain dijo que ya exigen las Convenciones de Ginebra y las leyes de conflicto armado. Con la IA difuminando las líneas entre decisiones de máquina y humanas, afirmó que la comunidad internacional debe asegurarse de que se asigne responsabilidad humana a todas las acciones en el campo de batalla.

“Las leyes de conflicto armado nos exigen culpar a la persona,” dijo Husain. “La persona debe ser responsable sin importar el nivel de automatización utilizado en el campo de batalla.”

Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19–20 de mayo de 2026, en Atlanta. La próxima era de innovación en el lugar de trabajo ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.

XAI1,3%
GROK-1,98%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado