Microsoft ha presentado Agent 365 y Microsoft 365 Enterprise 7, nuevas herramientas diseñadas para abordar una creciente amenaza a la seguridad: agentes de IA no gobernados que operan dentro de las organizaciones. El lanzamiento, que entrará en vigor el 1 de mayo, se produce en un momento en que los agentes de IA proliferan rápidamente y más del 80% de las empresas Fortune 500 ya los utilizan, a menudo sin la supervisión adecuada.

La creciente amenaza de la IA deshonesta

La principal preocupación es que los agentes de IA, que alguna vez fueron experimentales, ahora están profundamente arraigados en estructuras operativas. Sin supervisión, estos agentes pueden ser explotados y actuar contra sus organizaciones matrices. Microsoft llama a estos sistemas comprometidos “agentes dobles”, destacando el riesgo de manipulación mediante inyección rápida, envenenamiento de modelos u otras técnicas.

El problema es real: casi un tercio de los agentes operan sin aprobación de TI o de seguridad, y casi la mitad de las organizaciones carecen de medidas de seguridad para sus implementaciones de IA. Esto crea un importante punto ciego, especialmente a medida que los atacantes desarrollan métodos cada vez más sofisticados para secuestrar agentes. Investigaciones recientes muestran que las empresas, sin saberlo, incorporan instrucciones maliciosas en herramientas impulsadas por inteligencia artificial, creando “agentes durmientes” listos para ejecutar comandos dañinos.

Solución de Microsoft: Agent 365 y E7

Para contrarrestar esto, Microsoft ofrece dos soluciones:

  • Agent 365 ($15/usuario/mes): Un “plano de control” centralizado para observar, gobernar y proteger a los agentes de IA en toda una empresa.
  • Microsoft 365 Enterprise 7 ($99/usuario/mes): Combina Agent 365 con Copilot y funciones de seguridad avanzadas, con el objetivo de proporcionar una solución integral de gobierno de IA.

La suite extiende la infraestructura de seguridad existente (Defender, Entra, Purview) a entidades no humanas. Las características clave incluyen un Registro de agentes para rastrear a todos los agentes, ID de agente para administración de identidades y protección de datos mediante etiquetas de confidencialidad y monitoreo de riesgos internos.

El enfoque refleja los principios de seguridad de confianza cero aplicados a la IA, garantizando que los agentes sean tratados como amenazas potenciales hasta que se verifiquen. Microsoft puede bloquear agentes riesgosos en tiempo real.

Por qué esto importa ahora

La rápida adopción de agentes de IA está superando el desarrollo de herramientas de gobernanza eficaces. Se prevé que el mercado alcance los 1.300 millones de agentes para 2028, pero muchas organizaciones no están preparadas para las implicaciones de seguridad.

Esto no es sólo una cuestión técnica; es un riesgo empresarial. Los agentes no controlados podrían filtrar datos confidenciales, sabotear operaciones o convertirse en puntos de entrada para ataques cibernéticos. La medida de Microsoft señala un cambio de la experimentación a la seguridad operativa en la era de la IA autónoma.

Expansión copiloto y corrientes geopolíticas subyacentes

El lanzamiento está vinculado a la Ola 3 de Microsoft 365 Copilot, que ahora incluye el modelo Claude de Anthropic junto con el de OpenAI. Esta expansión se produce en medio de tensiones geopolíticas, ya que el Departamento de Defensa de EE. UU. recientemente señaló a Anthropic como un riesgo para la cadena de suministro debido a su negativa a cumplir con los términos del Pentágono. El continuo apoyo de Microsoft a Anthropic subraya su compromiso con la diversidad de modelos a pesar de la presión política.

El resultado final

Microsoft apuesta a que las empresas darán prioridad a la gobernanza de la IA antes de que los atacantes exploten las vulnerabilidades actuales. La carrera entre la creación y el control ha comenzado y la empresa se está posicionando como el proveedor de confianza para asegurar el futuro de los flujos de trabajo impulsados ​​por la IA.

Sigue siendo incierto si las empresas adoptarán estas herramientas lo suficientemente rápido como para adelantarse a la amenaza, pero lo que está en juego es claro: los agentes de IA no gobernados representan un riesgo real y creciente para las organizaciones de todos los tamaños.