Polski model sztucznej inteligencji Bielik Guard o nazwie „Sójka” został właśnie udostępniony na platformie Hugging Face. Społeczność może zatem przetestować i wykorzystać w swoich projektach rozwiązanie stworzone z myślą o ochronie użytkowników przed toksycznymi treściami w sieci.
Sójka dostępna dla wszystkich
Dzięki otwartemu dostępowi badacze, programiści i organizacje mogą samodzielnie sprawdzać skuteczność „Sójki”. Następnie mogą też zgłaszać sugestie i współtworzyć narzędzie, które ma wpływać na bezpieczeństwo cyfrowe. Model jest już dostępny do integracji z aplikacjami i chatbotami. Otwiera to drogę do praktycznych zastosowań — od moderacji dyskusji w mediach społecznościowych po ochronę młodszych użytkowników.
Twórcy projektu podkreślają, że celem udostępnienia Sójki na Hugging Face jest transparentność i współpraca. Społeczność może teraz pomóc w dalszym doskonaleniu modelu, zgłaszając przypadki, w których nie zadziałał on idealnie lub wymaga dopracowania. To wpisuje się w filozofię otwartego modelu Bielik AI.
Czym jest Sójka?
Sójka to polski model sztucznej inteligencji, którego celem jest ochrona użytkowników internetu przed toksycznymi i szkodliwymi treściami (zwłaszcza dzieci i młodzieży). Projekt został opracowany przez zespół Bielik.AI we współpracy ze społecznością Speak Leash. Stanowi jedno z pierwszych w Polsce narzędzi typu guardrails, czyli systemów zabezpieczających komunikację cyfrową.
Pomysł na stworzenie Sójki narodził się jako odpowiedź na narastający problem hejtu, przemocy słownej, wulgaryzmów i innych niebezpiecznych zachowań w sieci. Według danych NASK, aż co drugi nastolatek w Polsce doświadczył przemocy online. Natomiast siedmiu na dziesięciu młodych ludzi uznaje hejt za jeden z najpoważniejszych problemów internetu. To właśnie te statystyki stały się impulsem do opracowania narzędzia, które potrafi zidentyfikować i zatrzymać toksyczne komunikaty zanim dotrą do odbiorców.
Twórcy podkreślają, że Sójkato efekt także społecznego zaangażowania. W procesie przygotowania danych treningowych udział wzięło ponad 1500 osób. Wspólnie wypełniły około 65 tysięcy ankiet, pomagając określić, jakie treści powinny być uznawane za szkodliwe. Model lepiej rozpoznaje także subtelne formy agresji, ironii czy pasywno-agresywne sformułowania, które często wymykają się tradycyjnym algorytmom.
Nazwa projektu nie jest przypadkowa. Tak jak ptak sójka ostrzega głośnym głosem przed niebezpieczeństwem i potrafi naśladować inne dźwięki, tak samo model Sójka reaguje na sygnały toksyczności i dostosowuje się do kontekstu, w jakim pojawia się komunikat.
Polskie podejście do bezpieczeństwa w sieci
Sójka wyróżnia się na tle wielu podobnych rozwiązań tym, że została stworzona z myślą o polskim języku i kulturze komunikacji. Większość światowych modeli do moderowania treści opiera się na danych anglojęzycznych. Często prowadzi to do błędów przy analizie polskich wypowiedzi pełnych niuansów, ironii, regionalizmów czy kreatywnych zapisów omijających cenzurę.
Jak podkreślają twórcy, język polski jest wyjątkowo złożony — fleksyjny, pełen synonimów, form potocznych i zwrotów nacechowanych emocjonalnie. To sprawia, że wiele modeli trenowanych w języku angielskim nie radzi sobie z wykrywaniem toksycznych treści po polsku. Sójka została więc nauczona rozpoznawania lokalnych kontekstów, subtelnych znaczeń i specyficznych form ekspresji.
Dzięki takiemu podejściu model potrafi wychwycić komunikaty, które znajdują się na granicy dopuszczalności np. ukryte formy agresji.
Co więcej, Sójka jest modelem lekkim i wydajnym. Może zatem działać nawet na zwykłym komputerze, bez konieczności korzystania z kosztownych serwerów czy kart graficznych. Dzięki temu może być wykorzystywana nie tylko przez duże firmy technologiczne, ale także przez szkoły, instytucje publiczne i organizacje pozarządowe.
Jak działa Bielik Guard – pięć filarów bezpieczeństwa
Podstawą działania Sójki jest model Bielik Guard, który analizuje treści pod kątem pięciu kluczowych kategorii zagrożeń. Te tzw. filary bezpieczeństwa obejmują:
- Mowę nienawiści – wykrywanie wrogości i dyskryminacji wobec grup społecznych, etnicznych, religijnych czy mniejszości.
- Wulgaryzmy – identyfikowanie wulgarnego lub obraźliwego języka, który może być szkodliwy dla młodszych użytkowników.
- Treści seksualne – sygnalizowanie materiałów o charakterze erotycznym lub nieodpowiednim kontekście.
- Instrukcje przestępcze – rozpoznawanie treści promujących lub instruujących działania niezgodne z prawem.
- Zachowania autodestrukcyjne – wychwytywanie treści dotyczących samookaleczeń, samobójstw i innych zagrożeń dla życia i zdrowia.
Model nie ogranicza się do prostego klasyfikowania tekstu jako „bezpiecznego” lub „niebezpiecznego”. Sójka działa w sposób regresyjny, przypisując każdemu komunikatowi prawdopodobieństwo przynależności do danej kategorii toksyczności. Dzięki temu użytkownicy i moderatorzy mogą sami ustalać progi wrażliwości systemu, dopasowując jego reakcję do własnych potrzeb, wartości czy specyfiki platformy.
Taka elastyczność pozwala uniknąć nadmiernej cenzury, a jednocześnie skutecznie chroni przed naprawdę niebezpiecznymi treściami.
Twórcy podkreślają, że różnorodność interpretacji nie jest błędem, lecz wartością. To właśnie dzięki niej model lepiej rozumie niuanse komunikacji, uczy się z trudnych przypadków granicznych i rozwija w kierunku coraz bardziej świadomego, kontekstowego reagowania.
Co dalej z Sójką?
Choć „Sójka” dopiero rozpoczęła swoje publiczne loty, twórcy już zapowiadają kolejne etapy rozwoju projektu. Prace nad modelem będą prowadzone równolegle w trzech głównych kierunkach:
- Rozszerzenie zakresu detekcji – zespół planuje dodać nowe kategorie, takie jak dezinformacja, manipulacja emocjonalna czy przemoc symboliczna. W tym procesie ważną rolę odegrają eksperci z dziedziny etyki, językoznawstwa i psychologii komunikacji.
- Udoskonalenie danych i narzędzi anotacyjnych – trwają prace nad poprawą jakości danych treningowych oraz narzędzi do ich oznaczania. To ma pozwolić na jeszcze bardziej precyzyjne wychwytywanie przypadków granicznych.
- Eksperymenty z architekturą modeli – twórcy zapowiadają dalsze testy, mające na celu zwiększenie skuteczności, dodanie obsługi innych języków (m.in. angielskiego) oraz dostosowanie „Sójki” do różnych środowisk technologicznych.
Zespół Bielik.AI podkreśla, że projekt od początku miał charakter otwarty i społeczny — i taki pozostanie. Społeczność będzie nadal zapraszana do udziału w testach i konsultacjach. Każda opinia czy zgłoszenie błędu może przyczynić się do ulepszania modelu.
W intencji twórców „Sójka” ma stać się uniwersalnym narzędziem ochrony komunikacji cyfrowej – zdolnym wspierać nie tylko platformy technologiczne, ale też szkoły, instytucje publiczne i organizacje społeczne.
1 Komentarz