Anthropic demanda al gobierno de EE.UU. tras veto por negarse a usos militares de su IA
La compañía de inteligencia artificial Anthropic ha presentado demandas en cortes de California y Washington D.C. contra el gobierno de los Estados Unidos, después de que el Departamento de Defensa ordenara eliminar sus productos de todos los sistemas gubernamentales. Esta decisión se produjo cuando Anthropic se negó a levantar las prohibiciones éticas sobre el uso de su tecnología, específicamente en operaciones que involucraran la muerte de personas y vigilancia sin consentimiento.
El conflicto ético que desató la crisis
Anthropic, creadora del modelo de lenguaje Claude, se ha distinguido en la industria por priorizar la ética sobre el interés económico. Sus modelos tienen lineamientos más estrictos que competidores como Grok, que el año pasado generó controversia al producir contenido con referencias inapropiadas. Aunque todos los LLM enfrentan problemas estructurales éticos, ambientales y de derechos de autor, Anthropic ha mantenido mayor coherencia entre su discurso y acciones.
La negativa de la empresa a modificar sus políticas para el Departamento de Defensa llevó al gobierno a tomar medidas drásticas:
- Eliminación de productos Anthropic de sistemas gubernamentales
- Designación como compañía con riesgos en cadena de suministros
- Prohibición de contratos con el gobierno estadounidense
Esta es la primera vez que una empresa estadounidense recibe esta categorización, marcando un precedente preocupante para empresas tecnológicas con principios éticos firmes.
Respuesta política y reacción del mercado
Como contraataque, la administración de Trump prepara un decreto que obligaría a todo el gobierno federal a eliminar la IA de Anthropic de sus sistemas. Incluso si los tribunales favorecen a la empresa, recuperar terreno será difícil mientras competidores aprovechan el vacío creado.
Paradójicamente, la controversia ha impulsado la popularidad de Claude entre consumidores. El día que el Pentágono anunció la terminación del contrato, Claude superó por primera vez a ChatGPT en descargas del App Store de Apple en 15 países, incluyendo:
- Estados Unidos
- Alemania
- Francia
- Reino Unido
Desde enero, Anthropic ha duplicado sus suscriptores y triplicado usuarios diarios, aunque todavía está lejos de igualar los 250,5 millones de usuarios diarios de ChatGPT frente a sus 11,3 millones.
La estrategia comercial de Anthropic
El 80% de los ingresos de Anthropic proviene de contratos con organizaciones, siendo el gobierno estadounidense solo el 1% de estos. La empresa no depende críticamente ni del gobierno ni del consumidor promedio, pero aumentar su base individual le daría un impulso significativo a su imagen.
Lo curioso es que Anthropic no ha capitalizado completamente esta oportunidad. Mientras ChatGPT ofrece generación de imágenes incluida y límites menos restrictivos por el mismo precio, Anthropic mantiene una experiencia de usuario que se bloquea después de cierto uso de tokens, en lugar de reducir gradualmente la calidad como hacen sus competidores.
Los usuarios individuales muestran curiosidad y simpatía hacia Claude y sus principios éticos, pero la empresa enfrenta el desafío de convertir esta buena voluntad en ventaja competitiva sostenible en un mercado donde el valor práctico inmediato sigue siendo crucial para la adopción masiva.
