Firma Microsoft wprowadziła Agent 365 i Microsoft 365 Enterprise 7, nowe narzędzia zaprojektowane w celu rozwiązania rosnącego problemu bezpieczeństwa: nieuczciwych agentów AI działających wewnątrz organizacji. Premiera, która nastąpi 1 maja, następuje w związku z szybkim rozprzestrzenianiem się agentów AI, z których korzysta już ponad 80% firm z listy Fortune 500 – często bez odpowiedniego nadzoru.

Rosnące zagrożenie ze strony niekierowanej sztucznej inteligencji

Główny problem polega na tym, że agenci sztucznej inteligencji, niegdyś eksperymentalni, są obecnie głęboko zintegrowani ze strukturami operacyjnymi. Bez monitorowania agenci ci mogą zostać naruszeni i działać przeciwko swoim organizacjom. Microsoft nazywa takie zainfekowane systemy „podwójnymi agentami”, podkreślając ryzyko manipulacji poprzez wstrzykiwanie zapytań, zatruwanie modeli lub inne techniki.

Problem jest realny: Prawie jedna trzecia agentów działa bez zgody działu IT lub zabezpieczeń, a prawie połowa organizacji nie ma żadnych środków bezpieczeństwa na potrzeby wdrożeń sztucznej inteligencji. Stwarza to znaczną lukę w zabezpieczeniach, zwłaszcza że napastnicy opracowują coraz bardziej wyrafinowane metody włamywania się do agentów. Ostatnie badania pokazują, że firmy nieświadomie wprowadzają złośliwe instrukcje do narzędzi wykorzystujących sztuczną inteligencję, tworząc „uśpionych agentów” gotowych do wykonywania złośliwych poleceń.

Rozwiązanie Microsoft: Agent 365 i E7

Aby temu przeciwdziałać, Microsoft oferuje dwa rozwiązania:

  • Agent 365 (15 USD za użytkownika/miesiąc): Scentralizowany „pulpit nawigacyjny” do monitorowania, regulowania i ochrony agentów AI w całym przedsiębiorstwie.
  • Microsoft 365 Enterprise 7 (99 USD za użytkownika/miesiąc): Łączy agenta 365 z funkcją Copilot i zaawansowanymi funkcjami zabezpieczeń, oferując kompleksowe rozwiązanie do zarządzania sztuczną inteligencją.

Platforma rozszerza istniejącą infrastrukturę bezpieczeństwa (Defender, Entra, Purview) na podmioty inne niż ludzie. Kluczowe funkcje obejmują rejestr agentów do śledzenia wszystkich agentów, identyfikator agenta do zarządzania tożsamością oraz ochronę danych za pomocą etykiet wrażliwych i monitorowanie ryzyka wewnętrznego.

Podejście to opiera się na zasadach zerowego zaufania stosowanych do sztucznej inteligencji, zapewniając, że agenci są traktowani jako potencjalne zagrożenie do czasu weryfikacji. Microsoft może blokować ryzykowne agenty w czasie rzeczywistym.

Dlaczego to ma teraz znaczenie

Szybkie przyjęcie agentów AI wyprzedza rozwój skutecznych narzędzi zarządzania. Przewiduje się, że do 2028 r. rynek osiągnie 1,3 miliarda agentów, ale wiele organizacji nie jest przygotowanych na konsekwencje dla bezpieczeństwa.

To nie jest tylko problem techniczny; Jest to ryzyko biznesowe. Niekontrolowani agenci mogą wyciekać poufne dane, sabotować operacje lub stać się punktami wyjścia dla cyberataków. Posunięcie Microsoftu sygnalizuje przejście od eksperymentów do bezpieczeństwa operacyjnego w dobie autonomicznej sztucznej inteligencji.

Przedłużenie drugiego pilota i kontekst geopolityczny

Premiera zbiega się z trzecią falą Microsoft 365 Copilot, która obejmuje teraz model Claude firmy Anthropic wraz z OpenAI. Ekspansja następuje w obliczu napięć geopolitycznych, ponieważ Departament Obrony Stanów Zjednoczonych niedawno uznał Anthropic za ryzyko w łańcuchu dostaw ze względu na niespełnienie przez firmę wymagań Pentagonu. Ciągłe wsparcie Microsoftu dla Anthropic podkreśla jego zaangażowanie w różnorodne modele pomimo nacisków politycznych.

Główny wniosek

Microsoft obstawia, że przedsiębiorstwa będą priorytetowo traktować zarządzanie sztuczną inteligencją, zanim atakujący wykorzystają obecne luki. Trwa wyścig między tworzeniem a kontrolą, a firma pozycjonuje się jako zaufany dostawca zapewniający przyszłość przepływów pracy opartych na sztucznej inteligencji.

Nie jest jasne, jak szybko przedsiębiorstwa przyjmą te narzędzia, aby wyprzedzić zagrożenie, ale stawka jest jasna: nieuczciwi agenci sztucznej inteligencji stanowią realne i rosnące ryzyko dla organizacji każdej wielkości.