Anthropic desarrolla inteligencia artificial con capacidades peligrosas que decide mantener en secreto
La empresa de inteligencia artificial Anthropic anunció el martes 7 de abril de 2026 que ha creado un modelo de IA llamado Claude Mythos con capacidades tan avanzadas para detectar vulnerabilidades de seguridad que la compañía ha decidido no publicarlo al público por considerarlo demasiado peligroso.
Capacidades excepcionales que superan a expertos humanos
Según la información revelada por la firma dirigida por Dario Amodeu, Claude Mythos puede "superar a todos, excepto a los humanos más expertos, en la detección y explotación de vulnerabilidades de software". Esta herramienta forma parte de la última generación de la familia de IA Claude de Anthropic y ha demostrado ser capaz de identificar miles de vulnerabilidades de alta gravedad, incluyendo fallos en sistemas operativos principales y navegadores web populares.
Mike Krieger, de Anthropic Labs, declaró en la conferencia de IA HumanX en San Francisco: "Tenemos un nuevo modelo que explícitamente no vamos a publicar al público". Esta decisión sin precedentes refleja la preocupación genuina de la empresa sobre las consecuencias potenciales si esta tecnología cayera en manos equivocadas.
Riesgos significativos para la seguridad nacional y económica
La compañía explicó en un comunicado que "dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura". Las posibles consecuencias incluirían graves impactos en la economía, la seguridad pública y la seguridad nacional si la herramienta fuera utilizada por grupos cibercriminales.
La preocupación ha llegado hasta los más altos niveles del gobierno estadounidense y el sector financiero. El secretario del Tesoro de Estados Unidos, Scott Bessent, convocó una reunión con los máximos responsables de importantes bancos como Bank of America, Citigroup, Goldman Sachs, Morgan Stanley y Wells Fargo, así como con el presidente de la Reserva Federal, Jay Powell, para abordar los riesgos cibernéticos asociados a este nuevo modelo.
Estrategia de colaboración limitada para mitigar riesgos
Como medida de precaución, Anthropic ha compartido una versión restringida de Mythos con un grupo selecto de socios a través del proyecto denominado 'Glasswing'. Entre los participantes se encuentran empresas de ciberseguridad como CrowdStrike y Palo Alto Networks, así como gigantes tecnológicos como Amazon, Apple y Microsoft.
Anthony Grieco, director de seguridad y confianza de Cisco, explicó en un comunicado conjunto sobre Glasswing: "Este trabajo es demasiado importante y demasiado urgente para hacerlo solos. Las capacidades de la IA han cruzado un umbral que cambia fundamentalmente la urgencia necesaria para proteger la infraestructura crítica de las ciberamenazas, y no hay marcha atrás".
Preocupaciones sobre posibles filtraciones y uso indebido
La decisión de no publicar Claude Mythos se tomó después de que una filtración reciente de parte de su código llevara a la startup a publicar en su blog una advertencia sobre los riesgos de ciberseguridad sin precedentes. La empresa reconoce que si esta herramienta cayera en manos de grupos cibercriminales, podría causar grandes problemas a empresas y usuarios en todo el mundo.
La situación plantea preguntas fundamentales sobre el futuro del desarrollo de inteligencia artificial y la responsabilidad ética de las empresas tecnológicas. Anthropic ha establecido un precedente importante al priorizar la seguridad pública sobre el potencial comercial inmediato de una tecnología avanzada, marcando posiblemente un nuevo estándar para la industria de IA.



