Publikacja artykułów prasowych

Agenci AI zrewolucjonizują chmurę – jak to wpłynie na bezpieczeństwo?

ai generated, robots, androids, deep learning, neural, networks, brain, training, cyborg, futuristic, humanoid, machine learning, algorithm, computer, artificial intelligence, vision, processing, robotics, big data, cloud computing, transformation, digitization, virtual reality

Rozwój agentowych systemów sztucznej inteligencji (AI) zmusza do gruntownej rewaluacji strategii bezpieczeństwa chmury obliczeniowej. Skupienie przesuwa się z tradycyjnej obrony perimetralnej w kierunku analizy zachowań i automatycznego rozumowania. Podczas konferencji AWS re:Invent 2025 w Las Vegas panel liderów bezpieczeństwa Amazon Web Services (AWS) omówił różnice pomiędzy agentową AI a generatywną AI (GenAI) i podkreślił, że praktycy ds. bezpieczeństwa muszą przejść od bycia konsumentami AI do budowniczych narzędzi bezpieczeństwa. Podczas gdy GenAI służy do tworzenia treści, agenci wykonują zadania autonomicznie, co generuje profil ryzyka, który, jak porównał Gee Rittenhouse, wiceprezes ds. usług bezpieczeństwa w AWS, przypomina ryzyko związane z działaniami osób wewnątrz organizacji.

Nowe Wyzwania w Bezpieczeństwie Chmury

Tradycyjne podejście do bezpieczeństwa, koncentrujące się na ochronie pojedynczego zasobu, ustępuje miejsca analizie zachowań. Niezależny agent działający w sposób nieprzewidywalny przypomina potencjalne zagrożenie wewnętrzne. Z uwagi na to, że granice działania agenta znajdują się głęboko wewnątrz aplikacji, zespoły ds. bezpieczeństwa muszą połączyć tradycyjne metody zabezpieczeń z możliwościami obserwacji systemu. Jest to konieczne, aby zidentyfikować i reagować na nieprawidłowości w czasie rzeczywistym.

Bezpieczeństwo z Szybkością Maszyn

Amy Herzog, wiceprezes i główny inspektor ds. bezpieczeństwa informacji (CISO) w AWS, przestrzegła przed niedocenianiem podstawowych zasad bezpieczeństwa – zarządzania tożsamością i zasady minimalnych uprawnień. Wraz z wprowadzeniem agentów ryzyko związane z ich niedostatecznym wdrożeniem znacznie wzrasta. Gdy człowiek nie jest zaangażowany w działania systemów, potencjalne błędy mogą prowadzić do szybkiego i rozległego naruszenia bezpieczeństwa. Herzog zaleciła organizacjom myślenie o bezpieczeństwie z perspektywy szybkości działania maszyn, a nie ludzi. Podkreśliła konieczność stosowania krótkotrwałych i ściśle ograniczonych uprawnień, aby zapobiec wykorzystaniu agentów autonomicznych, szczególnie w sytuacjach, w których interwencja człowieka jest minimalna.

Definiowanie Granic Autonomii

Neha Rungta, dyrektor ds. zastosowanych nauk w AWS, zwróciła uwagę na znaczenie definiowania granic autonomii agentów i budowania zaufania. Przykładem jest agent wsparcia klienta uprawniony do przeprowadzania zwrotów – jakiej wysokości zwrotu powinien on dokonywać autonomicznie? Czy to byłoby 100 zł., a może 200 zł.? Kluczowe jest określenie poziomu zaufania, zakresu uprawnień agenta i zapewnienie, że nie działa on w sposób niezgodny z założeniami. Rungta promowała wykorzystanie automatycznego rozumowania – stosowanie dowodów matematycznych w celu weryfikacji poprawności działania systemu – jako kluczowego narzędzia do utrzymywania agentów w bezpiecznej ramie działania. Przedstawiono również nowo wprowadzony AWS Security Agent, którego celem jest włączenie wymagań bezpieczeństwa bezpośrednio do procesu projektowania aplikacji.

Od Konsumenta do Budowniczego AI

Hart Rossman, wiceprezes w biurze głównego inspektora ds. bezpieczeństwa informacji w AWS, zauważył, że obecne podejście branży bezpieczeństwa jest zbyt skoncentrowane na konsumpcji AI, np. wykorzystywaniu chatbotów do podsumowywania logów, zamiast na tworzeniu z nią narzędzi. Zwrócił uwagę, że wraz z rozwojem agentowej technologii nadszedł czas, aby stać się budowniczym. Rossman przewiduje przyszłość, w której tradycyjne konsole bezpieczeństwa, takie jak te do zarządzania zaporami ogniowymi dla aplikacji internetowych, zostaną zastąpione przez spersonalizowane, oparte na agentach rozwiązania. Przykładem jest agent reagowania na incydenty bezpieczeństwa w AWS, który może skrócić czas analizy z godzin lub dni do minut, poprzez proaktywne identyfikowanie dowodów i sugerowanie działań.

AI w Obronie Przed Atakami

Pomimo obaw, że osoby atakujące będą wykorzystywać AI do skalowania ataków, Rittenhouse wyraził optymizm, twierdząc, że technologia ta sprzyja obronie. AI może wzmocnić możliwości obronne poprzez poprawę analizy danych i wykrywania zagrożeń. Modele językowe (LLM) umożliwiają specjalistom ds. bezpieczeństwa przejście od poczucia przytłoczenia danymi do aktywnego zarządzania, ponieważ LLM doskonale radzą sobie z utrzymywaniem historii i kontekstu w rozległych zbiorach danych. LLM lub agent może łatwo przetworzyć ogromne ilości danych w poszukiwaniu anomalii i podjąć odpowiednie działania. Umożliwia to wypełnienie luk, które mogły powstać w poprzednich, bardziej fragmentarycznych podejściach. W przeszłości firmy musiały dzielić problem na mniejsze obszary, co często prowadziło do luk w zabezpieczeniach. Teraz, dzięki AI, możliwe jest kompleksowe podejście do bezpieczeństwa, zapewniające znacznie szerszą ochronę.

Czy ten artykuł był dla ciebie pomocny?
0
0