Microsoft ha presentato Agent 365 e Microsoft 365 Enterprise 7, nuovi strumenti progettati per affrontare una crescente minaccia alla sicurezza: agenti IA non governati che operano all’interno delle organizzazioni. Il lancio, a partire dal 1° maggio, avviene in un momento in cui gli agenti di intelligenza artificiale proliferano rapidamente, con oltre l’80% delle aziende Fortune 500 che già li utilizza, spesso senza un’adeguata supervisione.
La minaccia crescente dell’intelligenza artificiale canaglia
La preoccupazione principale è che gli agenti di intelligenza artificiale, una volta sperimentali, sono ora profondamente radicati nelle strutture operative. Senza monitoraggio, questi agenti possono essere sfruttati, agendo contro le loro organizzazioni madri. Microsoft chiama questi sistemi compromessi “doppi agenti”, evidenziando il rischio di manipolazione tramite iniezione tempestiva, avvelenamento da modelli o altre tecniche.
Il problema è reale: quasi un terzo degli agenti opera senza l’approvazione dell’IT o della sicurezza e quasi la metà delle organizzazioni non dispone di misure di sicurezza per le proprie implementazioni di intelligenza artificiale. Ciò crea un significativo punto cieco, soprattutto perché gli aggressori sviluppano metodi sempre più sofisticati per dirottare gli agenti. Ricerche recenti mostrano che le aziende incorporano inconsapevolmente istruzioni dannose in strumenti basati sull’intelligenza artificiale, creando “agenti dormienti” pronti a eseguire comandi dannosi.
La soluzione Microsoft: Agent 365 ed E7
Per contrastare questo, Microsoft offre due soluzioni:
- Agente 365 ($ 15/utente/mese): un “piano di controllo” centralizzato per osservare, governare e proteggere gli agenti IA in un’azienda.
- Microsoft 365 Enterprise 7 ($ 99/utente/mese): raggruppa Agent 365 con Copilot e funzionalità di sicurezza avanzate, con l’obiettivo di fornire una soluzione completa di governance dell’intelligenza artificiale.
La suite estende l’infrastruttura di sicurezza esistente (Defender, Entra, Purview) a entità non umane. Le funzionalità principali includono un registro degli agenti per tenere traccia di tutti gli agenti, ID agente per la gestione delle identità e protezione dei dati tramite etichette di riservatezza e monitoraggio dei rischi interni.
L’approccio rispecchia i principi di sicurezza zero-trust applicati all’intelligenza artificiale, garantendo che gli agenti siano trattati come potenziali minacce fino a quando non vengono verificati. Microsoft può bloccare gli agenti rischiosi in tempo reale.
Perché questo è importante adesso
La rapida adozione degli agenti IA sta superando lo sviluppo di strumenti di governance efficaci. Si prevede che il mercato raggiungerà 1,3 miliardi di agenti entro il 2028, ma molte organizzazioni sono impreparate alle implicazioni sulla sicurezza.
Questo non è solo un problema tecnico; è un rischio aziendale. Gli agenti non controllati potrebbero divulgare dati sensibili, sabotare operazioni o diventare punti di ingresso per attacchi informatici. La mossa di Microsoft segnala un passaggio dalla sperimentazione alla sicurezza operativa nell’era dell’intelligenza artificiale autonoma.
Espansione del copilota e correnti geopolitiche nascoste
Il lancio è legato a Wave 3 di Microsoft 365 Copilot, che ora include il modello Claude di Anthropic insieme a quello di OpenAI. Questa espansione avviene in un contesto di tensioni geopolitiche, poiché il Dipartimento della Difesa degli Stati Uniti ha recentemente segnalato Anthropic come un rischio per la catena di approvvigionamento a causa del suo rifiuto di rispettare i termini del Pentagono. Il continuo sostegno di Microsoft ad Anthropic sottolinea il suo impegno nel modellare la diversità nonostante la pressione politica.
Il risultato finale
Microsoft scommette che le aziende daranno priorità alla governance dell’intelligenza artificiale prima che gli aggressori sfruttino le attuali vulnerabilità. La corsa tra creazione e controllo è iniziata e l’azienda si sta posizionando come fornitore affidabile per garantire il futuro dei flussi di lavoro basati sull’intelligenza artificiale.
Resta incerto se le aziende adotteranno questi strumenti abbastanza rapidamente da stare al passo con la minaccia, ma la posta in gioco è chiara: gli agenti di intelligenza artificiale non governati rappresentano un rischio reale e crescente per le organizzazioni di tutte le dimensioni.
