Sam Altman revela que OpenAI no controla el uso militar de su IA por el Pentágono
OpenAI sin poder sobre uso militar de su IA según Altman

CEO de OpenAI aclara límites de influencia sobre aplicaciones militares del Pentágono

En una reveladora reunión interna este martes, Sam Altman, director ejecutivo de OpenAI, dejó claro a los empleados que la compañía no posee poder de decisión sobre cómo el Departamento de Defensa de Estados Unidos utiliza su software de inteligencia artificial. Esta declaración llega tras el controvertido acuerdo alcanzado el viernes pasado, que permite al Pentágono implementar modelos de IA de OpenAI en su red clasificada.

Tensiones con rival Anthropic y principios éticos

Según fuentes internas que solicitaron anonimato, Altman explicó que el Pentágono escuchará la experiencia técnica de OpenAI pero rechazó categóricamente que la empresa pueda opinar sobre la moralidad de acciones militares específicas. "No tienen derecho a tomar decisiones operativas", afirmó el ejecutivo durante la reunión general, la primera oportunidad para responder preguntas tras el acuerdo.

El acuerdo se produjo después de un enfrentamiento significativo con la empresa rival Anthropic PBC, que había exigido garantías explícitas de que su tecnología no sería utilizada para vigilancia masiva de ciudadanos estadounidenses ni para el despliegue de armas completamente autónomas. Se informó que Anthropic incluso cuestionó el uso potencial de su tecnología en operaciones específicas, como la captura del presidente venezolano Nicolás Maduro, aunque la empresa ha negado discutir operaciones concretas con el Departamento de Defensa.

Principios fundamentales y modificaciones al acuerdo

Altman declaró previamente haber alcanzado un acuerdo que refleja los principios fundamentales de OpenAI, los cuales prohíben explícitamente la vigilancia masiva a nivel nacional y exigen "responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas". Sin embargo, reconoció posteriormente que el acuerdo inicial parecía "oportunista y descuidado", revelando que actualmente trabajan con el Pentágono para introducir modificaciones que dejen claros estos principios.

Entre las garantías que se están negociando se incluyen:

  • Prevenir el uso de la IA para vigilancia nacional de estadounidenses
  • Evitar que agencias de inteligencia como la NSA dependan exclusivamente de servicios de OpenAI
  • Establecer límites claros en aplicaciones militares

Disputa por designación de riesgo en cadena de suministro

Durante la misma reunión, Altman reveló que continúa presionando al Pentágono para que retire la designación de Anthropic como "riesgo para la cadena de suministro", una etiqueta inusual que tradicionalmente se aplica a adversarios de Estados Unidos y nunca antes a una empresa estadounidense. El CEO expresó su deseo de ayudar a reducir las tensiones entre el Departamento de Defensa y su principal competidor en el campo de la inteligencia artificial.

Esta situación destaca los complejos desafíos éticos que enfrentan las empresas de tecnología avanzada al colaborar con entidades gubernamentales y militares, especialmente en áreas tan sensibles como la inteligencia artificial con aplicaciones de defensa y seguridad nacional.