Anthropic enfrenta al gobierno de EE.UU. por límites éticos en inteligencia artificial
Anthropic vs. gobierno EE.UU. por ética en inteligencia artificial

El enfrentamiento entre una empresa de IA y el gobierno estadounidense por principios éticos

En el año 2021, Dario Amodei, junto a su hermana Daniela y otros destacados investigadores, fundaron la compañía Anthropic, creadora del modelo de inteligencia artificial conocido como Claude. Desde su origen, la empresa se basó en una filosofía clara: establecer límites y controles rigurosos en la utilización de la IA, diferenciándose de otras como OpenAI, cuyo enfoque, según críticas, prioriza la generación de ganancias económicas.

Un contrato con restricciones y el choque con las autoridades

Consciente de que la inteligencia artificial debe ser una herramienta para contrarrestar amenazas tecnológicas, como las provenientes de China, Anthropic firmó en 2025 un contrato con el Departamento de Defensa de Estados Unidos. Sin embargo, la empresa impuso unas líneas rojas basadas en lo que denominan una especie de Constitución de la IA, fundamentada en principios de seguridad, rigor y responsabilidad.

Entre las restricciones clave se incluyó la prohibición de usar Claude para:

Banner ancho de Pickt — app de listas de compras colaborativas para Telegram
  • Vigilancia masiva a nivel doméstico.
  • Desarrollo de armas completamente autónomas.

Esta postura ética llevó a un enfrentamiento directo con el secretario de Defensa y el entonces presidente Donald Trump, quienes consideraron inadmisible que una empresa privada impusiera tales limitaciones a proyectos de seguridad nacional.

Declarada riesgo de seguridad y la respuesta legal de Anthropic

El conflicto escaló hasta el punto en que Anthropic fue declarada como un riesgo de seguridad nacional, una medida sin precedentes para una compañía estadounidense, similar a las aplicadas en el pasado contra firmas como Huawei. En respuesta, Anthropic presentó una demanda judicial contra el Departamento de Defensa, argumentando que la decisión era desproporcionada y motivada por ideología más que por razones técnicas.

El lanzamiento de Claude Mythos y la búsqueda de un acuerdo

A principios de este mes, Anthropic lanzó Claude Mythos, un nuevo modelo de IA con capacidades excepcionales para enfrentar ciberataques, considerado crucial para la seguridad de Estados Unidos. Este desarrollo subraya la paradoja actual: el pragmatismo parece imponerse, ya que Anthropic no puede renunciar a lucrativos contratos estatales, y el gobierno necesita herramientas tecnológicas avanzadas para proteger sus sistemas.

Por ello, el viernes pasado se realizó una reunión en la Casa Blanca entre Dario Amodei y altos funcionarios gubernamentales, con el objetivo de aliviar las tensiones y encontrar un terreno común. La inteligencia artificial, cada vez más decisiva para la protección nacional y la seguridad global, enfrenta un vacío regulatorio, ya que los legisladores carecen de marcos normativos adecuados para su gobernanza.

Reflexión sobre el desafío humano ante la tecnología

Recientemente, BBC News citó una frase del biólogo Edward Wilson que resume el dilema: “Tenemos emociones paleolíticas, instituciones medievales y tecnología casi divina”. Este pensamiento resalta la brecha entre el rápido avance tecnológico y la capacidad humana para regularlo de manera efectiva, un problema que Anthropic y el gobierno de EE.UU. intentan navegar en medio de disputas éticas y necesidades de seguridad.

Banner post-artículo de Pickt — app de listas de compras colaborativas con ilustración familiar