Microsoft alerta sobre el peligro de agentes dobles de IA en empresas
Microsoft advierte sobre agentes dobles de IA en empresas

Microsoft alerta sobre el peligro de agentes dobles de inteligencia artificial en empresas

Microsoft ha emitido una alerta sobre el riesgo creciente de los agentes dobles de inteligencia artificial, que aprovechan los accesos y privilegios otorgados a estos sistemas para realizar acciones maliciosas sin que las organizaciones se percaten. Esta amenaza surge en un contexto donde la adopción de agentes de IA se ha acelerado exponencialmente en el sector empresarial.

La expansión masiva de agentes de IA en el entorno corporativo

Según el informe Cyber Pulse 2026 de Microsoft, las empresas pioneras ya operan con equipos mixtos compuestos por personas y agentes de IA. Más del 80 por ciento de las empresas Fortune 500 utilizan actualmente agentes activos creados con herramientas de low code, lo que demuestra la penetración masiva de esta tecnología.

Los sectores que lideran esta implementación incluyen:

  • Software y tecnología (16%)
  • Manufactura (13%)
  • Entidades financieras (11%)
  • Comercio minorista (9%)

Estos agentes apoyan tareas cada vez más complejas como:

  1. Redacción de propuestas y documentos
  2. Análisis de datos financieros
  3. Clasificación de alertas de seguridad
  4. Automatización de procesos repetitivos
  5. Obtención de información a velocidad de máquina

El riesgo emergente: agentes dobles y IA en la sombra

La creciente adopción trae consigo nuevos riesgos significativos. Los agentes de IA están escalando más rápido de lo que muchas empresas pueden monitorear, generando una falta de visibilidad crítica que puede dar lugar a lo que se conoce como IA en la sombra y los temidos agentes dobles.

Estos agentes dobles representan una amenaza concreta al abusar de los amplios permisos y accesos a sistemas que poseen para trabajar de manera autónoma. "Un agente con demasiados permisos -o con instrucciones incorrectas- puede convertirse en una vulnerabilidad", advierte Microsoft en un comunicado oficial.

Al igual que ocurre con las personas, los agentes pueden transformarse en agentes dobles "si no se gestionan adecuadamente, si tienen permisos inadecuados o reciben instrucciones de fuentes no fiables".

La alarmante falta de controles de seguridad específicos

El Data Security Index de Microsoft revela datos preocupantes: solo el 47 por ciento de las organizaciones de todos los sectores afirma estar implementando controles de seguridad específicos para la IA generativa. Esta brecha de seguridad deja a más de la mitad de las empresas expuestas a potenciales amenazas.

La solución: adoptar un enfoque de confianza cero

Microsoft aboga por adoptar un enfoque de seguridad de confianza cero (Zero Trust) con los agentes de IA, lo que implica:

  • Concesión de acceso con privilegios mínimos e imprescindibles
  • Comprobación exhaustiva de quién o qué solicita acceso
  • Diseño de sistemas partiendo de la base de que los atacantes pueden llegar a acceder

Esta aproximación proactiva busca mitigar los riesgos asociados con la implementación masiva de agentes de inteligencia artificial en entornos corporativos, donde la velocidad de adopción ha superado en muchos casos la capacidad de las organizaciones para implementar medidas de seguridad adecuadas.