Inteligencia artificial militar estadounidense-israelí bombardeó escuela iraní
La precisión y decisión de los sistemas de inteligencia artificial empleados por Estados Unidos e Israel en su conflicto con Irán resultó tan extrema que, durante el primer día de ofensivas, misiles impactaron directamente una escuela femenina. Según informes provenientes de fuentes iraníes, al menos 175 personas perdieron la vida en la institución educativa Shajarah Tayyebeh, ubicada en la ciudad de Minab.
Medios internacionales como el New York Times corroboraron mediante análisis de imágenes satelitales que una base naval cercana, operada por el Cuerpo de la Guardia Revolucionaria Islámica, también fue objeto de bombardeos intensivos durante la misma operación militar.
Debate sobre IA y contratos militares cancelados
La polémica respecto al uso de inteligencia artificial para fines bélicos ya circulaba ampliamente en medios de comunicación y redes sociales desde que a Anthropic, compañía desarrolladora de la herramienta Claude, le fueron rescindidos sus contratos con el Departamento de Defensa de Estados Unidos, ahora renombrado como Departamento de Guerra.
La orden directa del expresidente Donald Trump prohibió a cualquier entidad pública emplear tecnología ofrecida por Anthropic. La razón fundamental fue la negativa de la empresa a colaborar en el desarrollo de armas autónomas letales, como drones capaces de identificar objetivos humanos y disparar misiles sin autorización humana, y sistemas de vigilancia masiva para analizar millones de mensajes, redes sociales y cámaras en busca de individuos sospechosos.
Trump incluso utilizó su plataforma Truth Social para calificar a los responsables de Anthropic como "lunáticos de izquierda", aunque la herramienta Claude ya había sido implementada en operaciones en Irán y Venezuela, según revelaciones del Wall Street Journal, y posiblemente en el Caribe durante ataques contra presuntas narcolanchas.
OpenAI asume el relevo militar
Actualmente, OpenAI ha ocupado el lugar vacante, con su director ejecutivo Sam Altman celebrando públicamente la nueva colaboración. Altman destacó en sus redes sociales que el Departamento de Guerra demostró "un profundo respeto por la seguridad", reiterando dos principios fundamentales: la prohibición de vigilancia masiva dentro del territorio nacional y la responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomos.
Más allá de especular sobre el cumplimiento real de estos principios, lo cierto es que la inteligencia artificial ya está integrada en las nuevas metodologías de guerra contemporánea. Un artículo de The Guardian lo describió acertadamente: "la guerra en Irán anuncia una era de bombardeos impulsados por inteligencia artificial más rápidos que la velocidad del pensamiento".
Los periodistas Robert Booth y Dan Milmo detallaron que Claude fue utilizado para analizar volúmenes masivos de datos de inteligencia, identificar y priorizar objetivos, recomendar armamento específico, evaluar la legalidad de los ataques y, crucialmente, reducir drásticamente el tiempo entre la detección de un objetivo y el lanzamiento del ataque. Esta eficiencia explica la intensidad de los aproximadamente 900 ataques registrados en las primeras doce horas del conflicto.
Precedentes en Gaza con sistema Lavender
La sensación de déjà vu respecto a estos eventos tiene fundamento sólido. En abril de 2024, otro reportaje de The Guardian firmado por Bethan McKernan y Harry Davies documentó una investigación donde seis oficiales de inteligencia revelaron que el ejército israelí empleó un sistema de inteligencia artificial denominado Lavender durante la guerra en Gaza.
Este sistema, alimentado por una base de datos extensa, identificaba posibles miembros de Hamas con mínima supervisión humana y bajo una política permisiva que consideraba "aceptables" ciertas bajas civiles en ataques contra militantes de bajo rango. Yuval Abraham, en la revista digital +972 Magazine, citó a una fuente que afirmó: "el personal humano a menudo sólo servía como un sello de aprobación para las decisiones de la máquina".
Así, la guerra moderna se transforma en un escenario donde los algoritmos dictan las acciones y los humanos simplemente validan sus juicios, planteando profundas cuestiones éticas y operativas sobre el futuro de los conflictos armados y la tecnología militar.



