Microsoft a dévoilé Agent 365 et Microsoft 365 Enterprise 7, de nouveaux outils conçus pour répondre à une menace de sécurité croissante : les agents d’IA non gouvernés opérant au sein des organisations. Ce lancement, qui entre en vigueur le 1er mai, intervient alors que les agents d’IA prolifèrent rapidement : plus de 80 % des entreprises Fortune 500 les utilisent déjà, souvent sans surveillance appropriée.

La menace croissante de l’IA malveillante

La principale préoccupation est que les agents d’IA, autrefois expérimentaux, sont désormais profondément ancrés dans les structures opérationnelles. Sans surveillance, ces agents peuvent être exploités, agissant contre leurs organisations mères. Microsoft appelle ces systèmes compromis « agents doubles », soulignant le risque de manipulation via une injection rapide, un empoisonnement de modèle ou d’autres techniques.

Le problème est réel : près d’un tiers des agents opèrent sans approbation informatique ou de sécurité, et près de la moitié des organisations ne disposent d’aucune mesure de sécurité pour leurs déploiements d’IA. Cela crée un angle mort important, d’autant plus que les attaquants développent des méthodes de plus en plus sophistiquées pour détourner les agents. Des recherches récentes montrent que des entreprises intègrent sans le savoir des instructions malveillantes dans des outils basés sur l’IA, créant ainsi des « agents dormants » prêts à exécuter des commandes nuisibles.

La solution de Microsoft : Agent 365 et E7

Pour contrer cela, Microsoft propose deux solutions :

  • Agent 365 (15 $/utilisateur/mois) : Un « plan de contrôle » centralisé pour observer, gouverner et sécuriser les agents IA dans une entreprise.
  • Microsoft 365 Enterprise 7 (99 $/utilisateur/mois) : Regroupe Agent 365 avec Copilot et des fonctionnalités de sécurité avancées, dans le but de fournir une solution complète de gouvernance de l’IA.

La suite étend l’infrastructure de sécurité existante (Defender, Entra, Purview) aux entités non humaines. Les fonctionnalités clés incluent un registre d’agents pour suivre tous les agents, un ID d’agent pour la gestion des identités et une protection des données via des étiquettes de sensibilité et une surveillance des risques internes.

Cette approche reflète les principes de sécurité Zero Trust appliqués à l’IA, garantissant que les agents sont traités comme des menaces potentielles jusqu’à ce qu’ils soient vérifiés. Microsoft peut bloquer les agents à risque en temps réel.

Pourquoi c’est important maintenant

L’adoption rapide des agents d’IA dépasse le développement d’outils de gouvernance efficaces. Le marché devrait atteindre 1,3 milliard d’agents d’ici 2028, mais de nombreuses organisations ne sont pas préparées aux implications en matière de sécurité.

Il ne s’agit pas seulement d’un problème technique ; c’est un risque commercial. Des agents non contrôlés pourraient divulguer des données sensibles, saboter des opérations ou devenir des points d’entrée pour des cyberattaques. La décision de Microsoft marque le passage de l’expérimentation à la sécurité opérationnelle à l’ère de l’IA autonome.

Expansion du copilote et courants géopolitiques sous-jacents

Le lancement est lié à la vague 3 de Microsoft 365 Copilot, qui inclut désormais le modèle Claude d’Anthropic aux côtés de celui d’OpenAI. Cette expansion intervient dans un contexte de tensions géopolitiques, le département américain de la Défense ayant récemment signalé Anthropic comme un risque pour la chaîne d’approvisionnement en raison de son refus de se conformer aux conditions du Pentagone. Le soutien continu de Microsoft à Anthropic souligne son engagement à modéliser la diversité malgré les pressions politiques.

L’essentiel

Microsoft parie que les entreprises donneront la priorité à la gouvernance de l’IA avant que les attaquants n’exploitent les vulnérabilités actuelles. La course entre création et contrôle est lancée, et l’entreprise se positionne comme le fournisseur de confiance pour garantir l’avenir des flux de travail basés sur l’IA.

Il reste incertain si les entreprises adopteront ces outils assez rapidement pour garder une longueur d’avance sur la menace, mais les enjeux sont clairs : les agents d’IA non gouvernés représentent un risque réel et croissant pour les organisations de toutes tailles.