A Microsoft revelou o Agent 365 e o Microsoft 365 Enterprise 7, novas ferramentas projetadas para enfrentar uma ameaça crescente à segurança: agentes de IA não governados operando dentro das organizações. O lançamento, a partir de 1º de maio, ocorre no momento em que os agentes de IA proliferam rapidamente, com mais de 80% das empresas Fortune 500 já os utilizando, muitas vezes sem a devida supervisão.
A crescente ameaça da IA desonesta
A principal preocupação é que os agentes de IA, outrora experimentais, estejam agora profundamente enraizados nas estruturas operacionais. Sem monitorização, estes agentes podem ser explorados, agindo contra as suas organizações-mãe. A Microsoft chama esses sistemas comprometidos de “agentes duplos”, destacando o risco de manipulação por meio de injeção imediata, envenenamento de modelo ou outras técnicas.
O problema é real: quase um terço dos agentes opera sem aprovação de TI ou de segurança, e quase metade das organizações não possui quaisquer medidas de segurança para suas implantações de IA. Isto cria um ponto cego significativo, especialmente à medida que os invasores desenvolvem métodos cada vez mais sofisticados para sequestrar agentes. Uma pesquisa recente mostra que as empresas incorporam, sem saber, instruções maliciosas em ferramentas alimentadas por IA, criando “agentes adormecidos” prontos para executar comandos prejudiciais.
Solução da Microsoft: Agente 365 e E7
Para combater isso, a Microsoft está oferecendo duas soluções:
- Agente 365 (US$ 15/usuário/mês): Um “plano de controle” centralizado para observar, governar e proteger agentes de IA em uma empresa.
- Microsoft 365 Enterprise 7 (US$ 99/usuário/mês): Pacotes Agent 365 com Copilot e recursos avançados de segurança, com o objetivo de fornecer uma solução abrangente de governança de IA.
O conjunto estende a infraestrutura de segurança existente (Defender, Entra, Purview) para entidades não humanas. Os principais recursos incluem um Registro de Agente para rastrear todos os agentes, ID de Agente para gerenciamento de identidade e proteção de dados por meio de rótulos de confidencialidade e monitoramento de risco interno.
A abordagem reflete os princípios de segurança de confiança zero aplicados à IA, garantindo que os agentes sejam tratados como ameaças potenciais até serem verificados. A Microsoft pode bloquear agentes arriscados em tempo real.
Por que isso é importante agora
A rápida adoção de agentes de IA está a ultrapassar o desenvolvimento de ferramentas de governação eficazes. Prevê-se que o mercado atinja 1,3 mil milhões de agentes até 2028, mas muitas organizações não estão preparadas para as implicações de segurança.
Este não é apenas um problema técnico; é um risco comercial. Agentes não controlados podem vazar dados confidenciais, sabotar operações ou tornar-se pontos de entrada para ataques cibernéticos. A mudança da Microsoft sinaliza uma mudança da experimentação para a segurança operacional na era da IA autônoma.
Expansão do copiloto e tendências geopolíticas
O lançamento está vinculado à Onda 3 do Microsoft 365 Copilot, que agora inclui o modelo Claude da Anthropic junto com o do OpenAI. Esta expansão ocorre em meio a tensões geopolíticas, já que o Departamento de Defesa dos EUA sinalizou recentemente a Antrópico como um risco para a cadeia de abastecimento devido à sua recusa em cumprir os termos do Pentágono. O apoio contínuo da Microsoft à Anthropic sublinha o seu compromisso com a diversidade de modelos, apesar da pressão política.
O resultado final
A Microsoft aposta que as empresas darão prioridade à governação da IA antes que os atacantes explorem as vulnerabilidades atuais. A corrida entre a criação e o controle começou, e a empresa está se posicionando como o fornecedor confiável para garantir o futuro dos fluxos de trabalho orientados por IA.
Ainda não se sabe se as empresas adoptarão estas ferramentas com rapidez suficiente para se manterem à frente da ameaça, mas o que está em jogo é claro: os agentes de IA não governados representam um risco real e crescente para organizações de todas as dimensões.





























