Anthropic denuncia a rivales chinos por robo de datos mientras enfrenta presión del Pentágono
Anthropic: denuncia robo de datos y enfrenta presión militar

Anthropic enfrenta crisis dual: acusa a rivales chinos y resiste presión militar

La empresa de inteligencia artificial Anthropic ha vivido una semana particularmente agitada que la coloca en el centro de dos controversias fundamentales para el futuro de la industria tecnológica. Por un lado, la startup con sede en San Francisco ha presentado acusaciones formales contra tres competidoras chinas, mientras que simultáneamente enfrenta presiones sin precedentes del Departamento de Defensa de Estados Unidos.

Denuncia contra empresas chinas por prácticas fraudulentas

El martes, Anthropic hizo pública una acusación formal contra las empresas DeepSeek, Moonshot y MiniMax, tres rivales de origen chino en el campo de la inteligencia artificial. Según la compañía estadounidense, estas firmas han utilizado miles de cuentas fraudulentas para generar millones de conversaciones con su chatbot Claude, con el objetivo explícito de entrenar y mejorar sus propios sistemas de inteligencia artificial.

Esta denuncia llega en un momento particularmente delicado para Anthropic, que apenas en septiembre de 2025 llegó a un acuerdo por 1.500 millones de dólares para resolver una demanda colectiva por haber utilizado aproximadamente medio millón de libros protegidos por derechos de autor para entrenar sus modelos Claude. La ironía de esta situación no pasó desapercibida, especialmente cuando Elon Musk comentó en su cuenta de X: "Anthropic es culpable de robar datos de entrenamiento a gran escala y ha tenido que pagar indemnizaciones multimillonarias por su robo. Esto es un hecho".

Presión militar y dilema ético

Mientras enfrentaba estas acusaciones cruzadas, Anthropic se encontró con otro desafío monumental cuando venció el plazo establecido por el Departamento de Defensa de Estados Unidos para que la empresa permitiera utilizar su modelo Claude "como considere oportuno". Esta exigencia del Pentágono incluye potencialmente usos como vigilancia masiva y armas letales con capacidades autónomas, según indican documentos internos.

La negativa de Anthropic a acceder a estas demandas ha llevado al Pentágono a etiquetar a la compañía como un "riesgo de cadena de suministro" y se ha indicado que podría forzar su cooperación invocando la Defense Production Act, una ley que otorga poderes especiales al gobierno en situaciones de emergencia nacional.

Contradicciones en la industria de la IA

La situación actual de Anthropic revela las profundas contradicciones que atraviesan la industria de la inteligencia artificial. Por un lado, la empresa que se construyó bajo la premisa de "ingerir" la web completa -incluyendo libros, artículos de prensa y código protegido- ahora defiende la soberanía de sus pesos de modelo y salidas algorítmicas. Por otro, se enfrenta a presiones gubernamentales que podrían convertir sus desarrollos en herramientas de vigilancia y conflicto.

Esta semana ha demostrado cómo una compañía puede pasar de ser considerada el faro moral del sector a enfrentar acusaciones de robo de propiedad intelectual y, según la perspectiva del Pentágono, convertirse en un posible obstáculo para la seguridad nacional estadounidense. El curso que tome este caso determinará no solo el futuro de Anthropic, sino que establecerá precedentes cruciales para toda la industria de inteligencia artificial.

La valiente oposición de Anthropic a las demandas de Washington, aunque contradictoria con sus propias prácticas pasadas, representa un punto de inflexión ético en un sector que frecuentemente opera en zonas grises legales y morales. En un contexto donde la cotidianidad tecnológica a veces parece extraída de distopías como Black Mirror, esta resistencia adquiere dimensiones particularmente significativas para el futuro de la innovación responsable.