Senadora demócrata presenta ley para limitar uso de IA en decisiones bélicas del Pentágono
Ley busca limitar uso de inteligencia artificial en decisiones de guerra

Iniciativa legislativa busca frenar autonomía de inteligencia artificial en operaciones militares

La senadora demócrata Elissa Slotkin presentó este martes una propuesta de ley que establecería límites estrictos al uso de inteligencia artificial por parte del Departamento de Defensa de Estados Unidos. La iniciativa llega en un momento de creciente preocupación sobre el papel de la tecnología en decisiones de vida o muerte durante conflictos armados.

Restricciones específicas sobre uso bélico de IA

El proyecto legislativo propone prohibir específicamente que el Pentágono utilice sistemas de inteligencia artificial para:

  • Tomar decisiones autónomas sobre objetivos de ataques militares
  • Realizar vigilancia masiva sobre ciudadanos estadounidenses
  • Ejecutar el uso de armas de mediano y largo alcance mediante plataformas automatizadas

Slotkin, quien forma parte del influyente Comité de Servicios Armados del Senado, criticó abiertamente lo que describió como un sistema político "deficiente" para supervisar el uso de inteligencia artificial en "cuestiones de fuerza letal". Sus declaraciones a NBC News reflejan una creciente preocupación entre legisladores sobre la falta de marcos regulatorios adecuados.

Tensión con gigante tecnológico Anthropic

La presentación de esta ley coincide con un momento de alta tensión entre el Departamento de Defensa y Anthropic, una de las principales empresas de inteligencia artificial del mundo. La disputa surgió cuando la compañía, con sede en Silicon Valley, se negó a eliminar restricciones éticas de sus sistemas que impedían su uso para vigilancia masiva.

Esta postura llevó a la suspensión de contratos entre Anthropic y la Defensa estadounidense, generando un enfrentamiento legal significativo. La situación escaló hasta que el presidente Donald Trump ordenó el 27 de febrero que todas las agencias federales dejaran de usar modelos de Anthropic en un plazo de seis meses, catalogando su tecnología como "una amenaza".

Contradicción en políticas de defensa

Paradójicamente, existen registros que indican que modelos de inteligencia artificial similares han sido utilizados previamente para identificar objetivos militares durante operaciones contra Irán. Esta contradicción subraya la complejidad del debate sobre el uso ético de tecnologías avanzadas en contextos bélicos.

La iniciativa de Slotkin representa un esfuerzo por establecer límites claros antes de que la automatización en decisiones militares avance sin controles adecuados. El proyecto legislativo deberá navegar por el proceso de aprobación en el Congreso, donde enfrentará tanto apoyo como oposición de diferentes sectores políticos y de la industria de defensa.

Este debate ocurre en un contexto global donde múltiples países están desarrollando capacidades militares basadas en inteligencia artificial, generando preocupaciones sobre una posible carrera armamentista tecnológica sin regulaciones internacionales consensuadas.