AI w cyberbezpieczeństwie Aktualności

WormGPT: AI w rękach cyberprzestępców

WormGPT: AI w rękach cyberprzestępców

Generatywna sztuczna inteligencja (AI) zdobywa coraz więcej fanów, ale nie wszyscy używają jej w dobrych celach. Najnowszym dowodem na to jest WormGPT, narzędzie AI zorientowane na cyberprzestępstwa.

Firma SlashNext zidentyfikowała WormGPT jako narzędzie zwiększające możliwości cyberprzestępców. Jest to AI oferowane na ciemnym webie jako broń do przeprowadzania wyszukanych ataków typu phishing i BEC.

WormGPT to wersja modeli GPT stworzona dla złowrogich celów. Dzięki niej cyberprzestępcy są w stanie produkować oszukańcze wiadomości e-mail, dostosowane indywidualnie do każdej ofiary, co zwiększa prawdopodobieństwo sukcesu ataku.

Jego twórca określa WormGPT jako „nemezis dobrze znanego ChatGPT”, które „umożliwia przeprowadzanie całej gamy nielegalnych działań”.

Narzędzia typu WormGPT mogą stać się niebezpiecznym orężem w rękach cyberprzestępców, zwłaszcza w kontekście działań OpenAI ChatGPT i Google Bard. Walczą one bowiem z wykorzystywaniem dużych modeli językowych do tworzenia wiarygodnych e-maili phishingowych i generowania złośliwego kodu.

Według ekspertów, w przeciwdziałaniu nadużyciom Bard nie dorównuje ChatGPT. Dlatego generowanie złośliwych treści jest łatwiejsze z wykorzystaniem Barda.

Niemniej, cyberprzestępcy już omijają zabezpieczenia ChatGPT, korzystając z jego API. Potem sprzedają skradzione konta premium, a także oprogramowanie do brutalnych ataków na konta ChatGPT. Są to jednak metody bardziej wyszukane.

Niepokojące jest, że WormGPT nie wymaga dużych umiejętności od korzystającego, co umożliwia nawet początkującym cyberprzestępcom szybkie i skuteczne ataki. Dodatkowo, próbują oni manipulować ChatGPT w taki sposób, aby generował treści mogące narazić ofiary na ujawnienie wrażliwych informacji, tworzenie nieodpowiednich treści i uruchamianie szkodliwego kodu.

Perfekcyjna gramatyka generowanych przez AI wiadomości sprawia, że wydają się one autentyczne i rzadziej wykrywa się je jako podejrzane.

Dzięki generatywnej AI, skomplikowane ataki BEC przeprowadzają nawet cyberprzestępcy o niskich umiejętnościach. To sprawia, że technologia ta staje się narzędziem dostępnym dla szerszej grupy przestępców.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *