Jueza federal suspende prohibición de Trump sobre tecnología de IA de Anthropic
La empresa emergente de inteligencia artificial Anthropic PBC obtuvo una victoria judicial significativa este jueves 26 de marzo de 2026, cuando una jueza federal emitió una orden que bloquea temporalmente la prohibición impuesta por la administración Trump sobre el uso gubernamental de su tecnología de IA. La decisión se produce después de que el fabricante del chatbot Claude argumentara que la medida podría costarle miles de millones en pérdidas de ingresos y afectar severamente sus operaciones.
Cuestionamiento a la justificación de seguridad nacional
La jueza federal Rita F. Lin emitió una orden judicial preliminar que suspende el plan del gobierno de cortar toda relación con Anthropic mientras se resuelve la disputa legal en el tribunal federal de San Francisco. En su decisión, la magistrada cuestionó profundamente la justificación del gobierno para la prohibición, afirmando que "no parecía estar dirigida a sus declarados intereses de seguridad nacional".
"Si la preocupación radica en la integridad de la cadena de mando operativa, el Departamento de Guerra podría simplemente dejar de usar a Claude", escribió la jueza Lin en su fallo. "En cambio, estas medidas parecen diseñadas para castigar a Anthropic". La magistrada fue más allá al señalar que tal acción "constituye una clásica represalia ilegal en violación de la Primera Enmienda" de la Constitución estadounidense.
Disputa sobre restricciones éticas de la IA
El conflicto se intensificó a principios de marzo cuando Anthropic presentó una demanda para bloquear una declaración del Departamento de Defensa que afirmaba que la empresa representaba una amenaza para la cadena de suministro estadounidense. Esta acción judicial marcó el punto álgido de una disputa de alto riesgo sobre las medidas de seguridad relativas a la tecnología de IA utilizada por el ejército.
La empresa emergente había exigido garantías específicas sobre el uso ético de su tecnología, incluyendo compromisos de que su IA no se utilizaría para vigilancia masiva de ciudadanos estadounidenses ni para el despliegue de armas autónomas letales. Por su parte, el gobierno alegó consideraciones de seguridad nacional para argumentar que no podía aceptar ninguna restricción en el uso de la tecnología.
Falta de base legal para la prohibición
En su análisis, la jueza Lin afirmó que el Departamento de Justicia no tenía ninguna "base legítima" para determinar que la firme postura ética de Anthropic con respecto a las restricciones en el uso de su tecnología de IA pudiera llevarla a "convertirse en un saboteador" de los intereses nacionales. Esta declaración judicial socava fundamentalmente el argumento central del gobierno para justificar la prohibición.
Un portavoz de Anthropic no respondió de inmediato a las solicitudes de comentarios sobre la decisión judicial, manteniendo un perfil discreto mientras el caso legal continúa su curso. El litigio, registrado como Anthropic v. US Department of War, 26-cv-01996, sigue activo en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, con sede en San Francisco.
Esta decisión judicial preliminar representa un revés significativo para los esfuerzos de la administración Trump por restringir el uso de tecnologías de IA desarrolladas por empresas con posturas éticas específicas, estableciendo un precedente importante sobre los límites del poder ejecutivo para regular tecnologías emergentes bajo el argumento de seguridad nacional.



