Zastosowanie AI widzimy już niemal wszędzie. Jednak sztuczna inteligencja nie zawsze ma oblicze innowacyjnego narzędzia do usprawnienia nam życia. Czasem także wspiera działania pana w czarnym kapturze. Mowa oczywiście o wykorzystaniu AI do cyberataków. Ostatnio pojawiły się nowe „osiągnięcia” także na tym polu.
AI wsparciem hakerów
Najświeższe przykłady to PromptLock – uznany przez badaczy z ESET za pierwszy znany ransomware zasilany przez AI. Niedawno Anthropic opisał też przypadki, w których modele językowe były wykorzystywane do szantażu, fałszywych rekrutacji czy generowania kodu malware. Oba te raporty pokazują, że AI obniża próg wejścia dla atakujących i zwiększa skuteczność cyberataków.
PromptLock – AI jako twórca ransomware
Zacznijmy od świeżynki. Badacze z ESET poinformowali o odkryciu oprogramowania PromptLock, które określili jako pierwszy znany przypadek ransomware zasilanego sztuczną inteligencją. Na razie nie zaobserwowano go wprawdzie w realnych atakach. Sam projekt wydaje się być proof-of-concept lub wersją testową, ale jego możliwości budzą niepokój. PromptLock potrafi eksfiltrować dane, szyfrować pliki, a docelowo także je niszczyć (choć ta ostatnia funkcja nie została jeszcze w pełni zaimplementowana).
Jak działa PromptLock?
- Silnik AI – malware wykorzystuje lokalnie model gpt-oss-20b poprzez API Ollama. To właśnie ten model generuje na bieżąco złośliwe skrypty w języku Lua, które następnie są wykonywane.
- Zakres działań – skrypty odpowiadają m.in. za przeszukiwanie systemu plików, analizę danych, kradzież wybranych informacji oraz ich szyfrowanie.
- Architektura – całość została napisana w języku Golang, a w serwisie VirusTotal wykryto zarówno warianty przeznaczone na Windows, jak i na Linux.
Dlaczego wszczynać alarm?
Tradycyjne ransomware wymagało sporych umiejętności programistycznych i rozbudowanego zaplecza. PromptLock pokazuje, że AI może automatyzować całe etapy ataku – od rekonesansu po szyfrowanie danych – w tempie i skali niedostępnej wcześniej dla przeciętnego cyberprzestępcy. To oznacza, że nawet osoby z ograniczoną wiedzą techniczną mogą, dzięki modelom językowym, tworzyć złośliwe oprogramowanie o wysokim stopniu zaawansowania.
Anthropic: Złośliwe użycie AI w praktyce
Podczas gdy PromptLock jest na razie jedynie prototypem, raport firmy Anthropic z sierpnia 2025 roku pokazuje, że podobne scenariusze już dzieją się naprawdę. Analiza „Detecting and countering misuse of AI” dokumentuje przypadki, w których modele językowe, w tym Claude, były aktywnie wykorzystywane przez cyberprzestępców.
Vibe-hacking – nowa forma cyfrowego szantażu
Anthropic odnotował co najmniej 17 incydentów ataków typu „vibe-hacking”. Zamiast klasycznego szyfrowania plików, przestępcy grozili publikacją poufnych danych wykradzionych z organizacji z sektora zdrowia, administracji czy wspólnot religijnych. Żądania okupu sięgały pół miliona dolarów i więcej. Modele AI pomagały w przygotowywaniu przekonujących komunikatów i automatyzacji całej operacji.
Fałszywe zatrudnienia wspierane przez AI
Innym przypadkiem były schematy rekrutacyjne prowadzone przez podmioty powiązane z Koreą Północną. Atakujący, podszywając się pod pracowników zdalnych, używali AI do pisania kodu i wchodzenia w infrastrukturę firm na Zachodzie. Dzięki wsparciu modeli językowych potrafili udawać wysoko wykwalifikowanych specjalistów, mimo ograniczonych faktycznych umiejętności.
Ransomware-as-a-Service generowane przez AI
Anthropic odnotował także działalność cyberprzestępcy o podstawowych zdolnościach kodowania, który korzystał z AI do tworzenia ransomware sprzedawanego innym hakerom. To klasyczny przykład zjawiska „cybercrime-as-a-service”, gdzie sztuczna inteligencja staje się multiplikatorem zagrożeń, udostępniając złożone narzędzia szerokiemu gronu atakujących.
Wspólne punkty i zagrożenia przyszłe
Choć PromptLock i incydenty opisane przez Anthropic różnią się skalą, oba przypadki mają wspólny mianownik. Pokazują bowiem, jak sztuczna inteligencja radykalnie podnosi poziom cyberzagrożeń.
Proof-of-concept kontra realne ataki
- PromptLock to eksperymentalny projekt, który udowadnia, że ransomware może być zasilane przez modele językowe tak, by samo generować własny kod.
- W raporcie Anthropic mamy już namacalne dowody – AI wykorzystuje się w atakach na organizacje publiczne, prywatne i krytyczne sektory infrastruktury.
Automatyzacja i obniżony próg wejścia
Dawniej stworzenie ransomware czy prowadzenie kampanii phishingowej wymagało dużych umiejętności technicznych. Dziś wystarczy znajomość promptów. AI działa jak „akcelerator cyberprzestępczości” – automatyzuje pisanie kodu, ułatwia rekonesans, generuje treści socjotechniczne, a nawet planuje kolejne kroki ataku.
Adaptacyjne zagrożenia
Najgroźniejsza perspektywa to możliwość, że przyszłe modele będą dynamicznie uczyć się z otoczenia i zmieniać swoje taktyki w czasie rzeczywistym. Taki ransomware nie tylko szyfruje dane. Może też unikać detekcji, wykrywać luki w zabezpieczeniach czy dostosowywać się do polityk bezpieczeństwa firmy. To oznacza nową generację „inteligentnych” ataków, z którymi tradycyjne metody ochrony mogą nie wystarczyć.
Przeczytaj także: Shadow AI – co to za zjawisko i dlaczego może zagrozić Twojej firmie?


