Sztuczna inteligencja odgrywa coraz większą rolę w cyberbezpieczeństwie. Zasadnicze pytanie brzmi jednak – czy wpływ ten jest dobry czy zły? Firmy i organizacje, nie tylko te ze świata IT, mogą wykorzystywać najnowsze narzędzia oparte na AI, aby zwiększyć wykrywalność cyberzagrożeń i chronić swoje systemy lub zasoby danych. Jest to jednak obosieczny miecz – wszak cyberprzestępcy również mogą używać tej technologii do przeprowadzania coraz bardziej wyrafinowanych ataków.
Wzrost liczby cyberataków sprzyja wzrostowi rynku produktów związanych z bezpieczeństwem opartym na AI. Raport z lipca 2022 roku opracowany przez Acumen Research and Consulting mówi, że globalny rynek usług ukierunkowanych na cyberbezpieczeństwo wyniósł 14,9 miliarda dolarów w 2021 roku. Szacuje się jednak, że osiągnie on niebagatelne 133,8 miliarda dolarów do 2030 roku.
Wzrasta liczba ataków, takich jak rozproszone ataki typu DDoS i naruszenia dostępów do systemów gromadzących dane. Bywają one często bardzo kosztowne dla, padających ofiarą hakerów wyposażonych w broń o nazwie AI, firm. W rezultacie generują potrzebę bardziej zaawansowanych rozwiązań.
Innym czynnikiem napędzającym wzrost rynku była pandemia Covid-19 i przesunięcie się w kierunku pracy zdalnej, jak podaje raport. Zmusiło to wiele firm do zwiększenia koncentracji na cyberbezpieczeństwie i wykorzystywaniu narzędzi opartych na AI do skuteczniejszego wykrywania i zatrzymywania ataków.
Patrząc w przyszłość, trendy takie jak nieustanny rozwój Internetu rzeczy (IoT), a co za tym idzie, nieustanny wzrost liczby podłączonych do sieci urządzeń czy rosnące wykorzystanie usług zabezpieczeń opartych na chmurze będą napędzać rozwój rynku usług z zakresu cyberbezpieczeństwa opartego na sztucznej inteligencji.
Wzrost bezpieczeństwa dzięki AI
Wśród rodzajów produktów wykorzystujących AI znajdują się antywirusy/antymalware, zapobieganie utracie danych, wykrywanie oszustw (antyfraud), zarządzanie tożsamością i dostępem, system wykrywania/ochrony przed włamaniami oraz zarządzanie ryzykiem i zgodnością.
Do tej pory wykorzystanie AI w cyberbezpieczeństwie było raczej ograniczone, głównie w kontekście takich produktów jak filtry e-mailowe i narzędzia identyfikacji złośliwego oprogramowania, które w jakiś sposób są napędzane przez AI.
Często obserwuje się narzędzia analizy behawioralnej wykorzystujące AI tj. narzędzia analizujące dane w celu określenia zachowań hakerów, aby sprawdzić, czy istnieje jakiś wzorzec ich ataków – czas, metoda ataku i sposób poruszania się hakerów w systemach. Zebranie takich informacji może być niezwykle wartościowe dla specjalistów zajmujących się bezpieczeństwem systemów IT.
Wzrost zagrożeń cybernetycznych
Z drugiej strony, AI może być używane do identyfikacji wzorców w systemach komputerowych, które ujawniają słabości w oprogramowaniu lub programach zabezpieczających, co pozwala hakerom na wykorzystanie tych nowo odkrytych słabości. W połączeniu z kradzionymi danymi osobistymi lub zebranymi danymi z otwartych źródeł, takich jak posty w mediach społecznościowych, cyberprzestępcy mogą użyć AI do tworzenia dużych ilości wiadomości phishingowych w celu rozprzestrzeniania złośliwego oprogramowania lub zbierania cennych informacji.
AI może być również używane do projektowania złośliwego oprogramowania, które ciągle się zmienia, aby uniknąć wykrycia przez automatyczne narzędzia obronne. Stale zmieniające się sygnatury złośliwego oprogramowania mogą pomóc napastnikom uniknąć statycznych zabezpieczeń, takich jak zapory sieciowe.
Co więcej, złośliwe oprogramowanie oparte na AI może znajdować się w systemie, zbierając dane i obserwując zachowanie użytkowników aż do momentu, gdy będzie gotowe do przeprowadzenia kolejnej fazy ataku lub wysłania zebranych informacji z niskim ryzykiem wykrycia. To częściowo dlatego firmy stopniowo przechodzą do modelu „zero zaufania”, gdzie zabezpieczenia są ustawione tak, aby ciągle kwestionować i kontrolować ruch sieciowy oraz aplikacje w celu zweryfikowania, że nie są szkodliwe.
AI zdoła upilnować sama siebie?
Jaka jest zatem odpowiedź na postawione już w starożytności (oczywiście jeszcze nie w kontekście sztucznej inteligencji) pytanie o to, kto wyegzekwuje odpowiedzialność od tego, kto teoretycznie miał jej pilnować? Nowoczesne systemy bezpieczeństwa oparte na AI są bardzo kosztowne w budowie. Na pewno bardziej niż przeprowadzenie ataku za pomocą, coraz powszechniej dostępnych, narzędzi sztucznej inteligencji. Jednak przeciętny haker raczej nie będzie miał możliwości dostępnych dla najlepszych umysłów AI na świecie. Jest zatem szansa, że wzmocnione przez AI rozwiązania chroniące cyberbezpieczeństwo pozostaną mimo wszystko na wyższym poziomie niż nowo tworzone metody hackowania systemów informatycznych.