AI w nauce Artykuły

Czy AI jest bezpieczna dla młodych użytkowników? TeenAegis publikuje AI Danger Index

bezpieczeństwo dzieci AI

Organizacja TeenAegis opublikowała pierwszy w historii ranking zagrożeń, jakie platformy sztucznej inteligencji stwarzają dla nieletnich użytkowników. W zestawieniu nazwanym AI Danger Index firma OpenAI zajęła pozycję lidera bezpieczeństwa z najniższym poziomem ryzyka spośród wszystkich ocenianych dostawców. To konkretna próba zmierzenia czegoś, o czym rodzice i pedagodzy dyskutują od miesięcy: jak bardzo bezpieczeństwo AI dzieci zależy od tego, z którego chatbota korzysta nastolatek.

Czym jest AI Danger Index i dlaczego powstał

AI Danger Index to metodologia opracowana przez TeenAegis – organizację zajmującą się ochroną młodych ludzi w środowisku cyfrowym. Ranking nie opiera się na jednym kryterium. Bierze pod uwagę kilkanaście wymiarów ryzyka: od łatwości generowania treści nieodpowiednich dla nieletnich, przez mechanizmy weryfikacji wieku, aż po transparentność polityk moderacji. Każda platforma otrzymuje zagregowany wynik, który pozwala porównać ją z konkurencją.

Pomysł brzmi prosto, ale wykonanie jest skomplikowane. Modele językowe reagują różnie na te same zapytania w zależności od kontekstu, języka, a nawet pory dnia. TeenAegis zastosował ustandaryzowane scenariusze testowe – coś na kształt „crash testów” znanych z branży motoryzacyjnej, tyle że zamiast manekinów w grze są symulowane interakcje nastolatków z chatbotami.

OpenAI na szczycie – najniższe ryzyko w rankingu

Wynik OpenAI nie jest przypadkowy. Firma od kilkunastu miesięcy intensywnie rozwija narzędzia ochrony nieletnich. W maju 2025 roku opublikowała dokument zatytułowany Child Safety Blueprint, czyli szczegółowy plan architektoniczny bezpieczeństwa dzieci w produktach opartych na modelach GPT. Dokument opisuje pięć filarów: domyślne ograniczenia dla kont nieletnich, automatyczną detekcję prób manipulacji, współpracę z organizacjami ochrony dzieci, regularne audyty zewnętrzne i publiczne raportowanie incydentów.

Sam ranking AI Danger Index potwierdził, że te deklaracje przekładają się na praktykę. OpenAI uzyskało najniższy wynik ryzyka co oznacza, że ich modele najskuteczniej blokowały próby wywoływania treści niebezpiecznych dla nieletnich, miały najlepsze mechanizmy eskalacji i najjaśniejsze zasady przetwarzania danych młodych użytkowników. Jak podało OpenAI Newsroom, firma traktuje ten wynik jako potwierdzenie obranej strategii, ale też jako zobowiązanie do dalszego podnoszenia standardów.

Bezpieczeństwo dzieci przy korzystaniu z AI – co właściwie mierzymy

Warto zatrzymać się przy samym pojęciu. Bezpieczeństwo dzieci w kontakcie z czatami AI to nie tylko filtrowanie wulgaryzmów. To złożony problem obejmujący co najmniej kilka warstw. Pierwsza to treść, a mianowicie czy model potrafi odmówić wygenerowania materiału szkodliwego. Druga to relacja, czy system rozpoznaje, gdy rozmówca jest w kryzysie emocjonalnym, i odpowiednio reaguje. Trzecia to dane – jak platforma chroni informacje osobowe nieletnich. Czwarta, często pomijana, to projektowanie doświadczenia – czy interfejs nie zachęca do nadmiernego korzystania, budowania pseudoemocjonalnej więzi z chatbotem albo uzależnienia od ciągłej interakcji.

AI Danger Index próbuje uchwycić wszystkie te wymiary. To ambitne zadanie i z pewnością metodologia będzie ewoluować. Jednak sam fakt, że ktoś zaczął mierzyć i porównywać, tworzy presję rynkową. Producenci, którzy wypadają słabo, mają teraz konkretną motywację do poprawy. Mechanizm znany z programu Euro NCAP – odkąd zaczęto publicznie oceniać bezpieczeństwo samochodów, producenci zaczęli rywalizować o gwiazdki.

Jak wypadają inni dostawcy

Ranking TeenAegis obejmuje kilkanaście platform – od dużych graczy takich jak Google (Gemini), Anthropic (Claude) i Meta (Llama), po mniejsze projekty open source. Szczegółowe wyniki dostępne są na stronie AI Danger Index. Widać wyraźną korelację: firmy, które publicznie zainwestowały w programy bezpieczeństwa nieletnich, wypadają lepiej. To nie zaskoczenie, ale stanowi ważne potwierdzenie – deklaracje wsparte konkretnymi mechanizmami technicznymi przekładają się na mierzalne rezultaty.

Ciekawie prezentuje się pozycja modeli open source. Bez centralnego dostawcy odpowiedzialnego za moderację, ich wyniki ryzyka bywają wyższe. To otwiera dyskusję o tym, czy swoboda modyfikacji modelu jest warta kompromisu w kwestii ochrony najmłodszych użytkowników – problem, który analizowaliśmy już w kontekście modeli open source.

Co mogą zrobić rodzice – i co powinni wiedzieć

Ranking AI Danger Index nie jest narzędziem do straszenia. Jest kompasem. Rodzic, który widzi, że jego dziecko korzysta z ChatGPT, może teraz sprawdzić, jak ta platforma wypada na tle konkurencji – i podjąć świadomą decyzję. To trochę jak z aplikacjami społecznościowymi: sam zakaz nie działa, ale wiedza o tym, które środowisko jest bezpieczniejsze, pozwala prowadzić sensowną rozmowę z nastolatkiem.

OpenAI w swoim Child Safety Blueprint podkreśla zasadę „safety by default” – domyślne ustawienia kont nieletnich powinny być restrykcyjne, a nie odwrotnie. Użytkownik poniżej 18. roku życia nie powinien musieć szukać opcji ochrony w ustawieniach. One mają być włączone od pierwszej sekundy.

Warto też pamiętać, że żaden ranking nie zastąpi rozmowy. Technologia filtruje, ale nie wychowuje. AI Danger Index daje rodzicom argument i punkt odniesienia – reszta to już relacja między dorosłym a młodym człowiekiem. Temat rozmów z dziećmi o sztucznej inteligencji poruszaliśmy już na naszych łamach i warto do niego wracać.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *