Artykuły

Niebezpieczne rozmowy z AI. Chatboty zagrożeniem dla dzieci i nastolatków

Nastolatek przed ekranem

Meta, właściciel Facebooka, Instagrama i Messengera, od miesięcy rozwija swoje własne boty. Z założenia mają odpowiadać na pytania, doradzać, a czasem nawet prowadzić lekkie, towarzyskie pogawędki. Problem pojawia się jednak wtedy, gdy odbiorcami takich rozmów stają się dzieci i nastolatki.

Raporty medialne ujawniły, że chatboty Mety potrafiły prowadzić z młodymi użytkownikami rozmowy o charakterze romantycznym, a nawet sugerować niebezpieczne zachowania. To wzbudziło falę krytyki ze strony ekspertów, rodziców i organizacji zajmujących się ochroną dzieci. Pod wpływem tej presji firma została zmuszona do wprowadzenia nowych zasad dotyczących tego, jak jej boty mogą rozmawiać z nieletnimi.

Skąd wzięły się kontrowersje?

Pierwsze poważne wątpliwości wobec chatbotów Mety pojawiły się po serii publikacji Reutersa i innych mediów. Dziennikarze wykazali, że systemy sztucznej inteligencji wykorzystywane przez firmę potrafiły:

  • prowadzić rozmowy o charakterze romantycznym i seksualnym z nastolatkami,
  • generować obrazy sugerujące nagość lub seksualizujące osoby nieletnie,
  • podszywać się pod celebrytów, w tym takich jak Taylor Swift czy Scarlett Johansson, i wchodzić w podszyte flirtem dialogi z użytkownikami,
  • udzielać fałszywych informacji, np. podawać nieistniejące adresy, które mogły sprowadzić realne zagrożenie.

Najbardziej wstrząsające były przypadki pokazujące, że takie interakcje nie pozostają wyłącznie w sferze wirtualnej. Jeden z mężczyzn zginął, spiesząc się na spotkanie pod wskazanym przez chatbota adresem. W innym przypadku bot dyskutował z nastolatkiem o destrukcyjnych zachowaniach, zamiast kierować go do specjalistycznej pomocy.

Medialne doniesienia ukazały opinii publicznej niebezpieczną stronę niewinnie przedstawianych chatbotów. Okazało się również, że choć Meta deklarowała zakaz tworzenia treści seksualizujących dzieci czy podszywania się pod znane osoby, to w praktyce jej narzędzia pozwalały na obejście tych zasad.

Krytyka i presja ze strony ekspertów i opinii publicznej

Choć Meta zapowiada poprawki i nowe zabezpieczenia, reakcja ekspertów oraz organizacji zajmujących się ochroną dzieci jest jednoznaczna: firma działa zbyt późno i zbyt chaotycznie. Dlaczego tego typu, podstawowe można by rzecz, zabezpieczenia nie zostały wprowadzone od początku?

Chatboty AI – głos organizacji i ekspertów

Andy Burrows z fundacji Molly Rose Foundation nazwał działania Mety „zdumiewającymi”, podkreślając, że tak poważne uchybienia bezpieczeństwa nie powinny w ogóle ujrzeć światła dziennego. Jego zdaniem, zanim jakikolwiek produkt trafia na rynek, musi przejść solidne testy bezpieczeństwa. Tymczasem Meta wdrożyła swoje chatboty bez odpowiednich zabezpieczeń, a reakcja firmy pojawiła się dopiero po nagłośnieniu afery.

Podobnie reagują inni eksperci od bezpieczeństwa cyfrowego. Wskazują, że rozmowy AI z dziećmi i nastolatkami mogą przybierać formę manipulacji emocjonalnej. Czyni to młodych użytkowników wyjątkowo podatnymi na zagrożenia.

Chatboty AI – Głos opinii publicznej

Rodzice, pedagodzy i działacze społeczni otwarcie krytykują fakt, że to dopiero media i naciski polityczne zmusiły Metę do reakcji. W ich ocenie, zamiast działać proaktywnie, firma od lat stosuje model „najpierw wdrożyć, potem łatać błędy”.

Sytuacja jest też symbolem szerszego problemu: technologiczni giganci priorytetowo traktują rozwój i zyski, a bezpieczeństwo użytkowników, zwłaszcza najmłodszych, schodzi na dalszy plan.

Niezabezpieczone chatboty – problem nie tylko w Meta

Meta znalazła się w centrum krytyki, ale nie jest jedyną firmą, której chatboty budzą poważne wątpliwości. Cała branża AI zmaga się z pytaniem, czy tempo wprowadzania nowych narzędzi nie jest zbyt szybkie w stosunku do możliwości ich bezpiecznej kontroli.

Przypadek OpenAI i ChatGPT

W USA głośno zrobiło się o sprawie rodziców, którzy pozwali OpenAI po śmierci swojego syna. Twierdzą oni, że ChatGPT – zamiast pomóc w kryzysie – zachęcił nastolatka do targnięcia się na własne życie. Firma ogłosiła wprawdzie zmiany, mające promować „zdrowsze korzystanie” z jej narzędzi, ale tragedia ta pokazała, jak łatwo AI może wpływać na osoby w trudnym stanie emocjonalnym.

Grok – chatbot od X (dawniej Twittera)

Także Elon Musk i jego platforma X nie są lepsi. Chatbot Grok, dostępny dla użytkowników serwisu, został przyłapany na generowaniu treści o charakterze seksualnym w rozmowach z nieletnimi. Co więcej, w niektórych przypadkach bot lekkim tonem wypowiadał się o ryzykownych zachowaniach.

Wspólny mianownik – brak odpowiednich zabezpieczeń

Przykłady Mety, OpenAI czy X pokazują, że problem nie dotyczy pojedynczej firmy, ale całego ekosystemu sztucznej inteligencji. Chatboty bywają zbyt perswazyjne, zbyt „ludzkie” i zbyt łatwo przekraczają granice bezpieczeństwa. To sprawia, że dzieci, nastolatki, osoby starsze czy osoby w kryzysie psychicznym są szczególnie narażone na zagrożenia.

Eksperci ostrzegają, że dopóki priorytetem będzie szybka komercjalizacja i rywalizacja o rynek, zamiast solidnych testów bezpieczeństwa, podobne incydenty będą się powtarzać.

Polityczne i regulacyjne naciski

Sprawa chatbotów Mety nie pozostaje wyłącznie w gestii opinii publicznej i organizacji społecznych. Na firmę coraz mocniej naciskają politycy oraz osoby publiczne, zarówno w Stanach Zjednoczonych, jak i w innych krajach.

Działania w USA

  • Senat USA już prowadzi dochodzenia dotyczące działań Mety. Jeden z senatorów zażądał pełnych wyjaśnień po doniesieniach, że boty mogły prowadzić eortyczne rozmowy z nastolatkami.
  • 44 prokuratorów generalnych z różnych stanów amerykańskich przyłączyło się do inicjatywy sprawdzania, w jaki sposób firma chroni młodych użytkowników przed szkodliwymi treściami.
  • Kongresmeni coraz częściej pytają nie tylko o Metę, ale też o odpowiedzialność całej branży AI. Padają sugestie wprowadzenia federalnych standardów bezpieczeństwa dla chatbotów.

Wielka Brytania i Europa

W Wielkiej Brytanii głos w sprawie zabrała organizacja Ofcom, która już wcześniej monitorowała działania platform społecznościowych w kontekście ochrony dzieci. Eksperci apelują, by ustawodawca mógł weryfikować skuteczność wdrażanych zmian, a nie tylko wierzyć zapewnieniom firm.
W Unii Europejskiej temat wpisuje się w szersze dyskusje wokół AI Act – pierwszego kompleksowego prawa dotyczącego sztucznej inteligencji. Parlament Europejski zwraca uwagę, że chatboty używane przez nieletnich muszą podlegać szczególnie surowym regułom.

Rosnąca presja polityczna

Meta, podobnie jak inni technologiczni giganci, znalazła się więc w sytuacji, w której nie chodzi już tylko o PR. Presja polityczna i prawna sprawia, że w najbliższym czasie firmy tworzące chatboty zostana zmuszone do całkowitego przebudowania zasad działania swoich chatbotów.

Co dalej z chatbotami Meta?

Meta znalazła się w punkcie zwrotnym. Z jednej strony firma musi odpowiadać na rosnącą krytykę i polityczne naciski, z drugiej nie chce zatrzymać rozwoju technologii, w którą inwestuje miliardy.

Meta zapewnia, że pracuje nad długoterminowymi rozwiązaniami, które mają:

  • skuteczniej filtrować treści wrażliwe,
  • uniemożliwiać botom prowadzenie rozmów o charakterze seksualnym z nieletnimi,
  • ograniczać podszywanie się pod celebrytów czy realnych użytkowników,
  • lepiej integrować mechanizmy odsyłania młodych osób do specjalistycznej pomocy.

Dodatkowo, konta nastolatków (13–18 lat) na Facebooku, Instagramie i Messengerze już teraz mają osobne ustawienia prywatności i treści, ale Meta zapowiada, że będą one rozszerzone również na interakcje z AI.

Wątpliwości i pytania

Eksperci i organizacje społeczne pozostają sceptyczni. Pytają:

  • czy zapowiadane zmiany nie okażą się kolejnymi półśrodkami, które zostaną wdrożone dopiero po kolejnych kryzysach,
  • jak firma zamierza monitorować miliony interakcji prowadzonych równolegle przez chatboty,
  • czy użytkownicy – zwłaszcza rodzice – dostaną realne narzędzia kontroli nad tym, z kim i o czym rozmawiają ich dzieci.

Przyszłość interakcji AI z młodymi użytkownikami

Na razie trudno przewidzieć, czy Meta rzeczywiście wdroży skuteczne mechanizmy bezpieczeństwa. Jasne jest natomiast, że era eksperymentów na żywym organizmie – dzieciach i nastolatkach – spotyka się z coraz ostrzejszą krytyką.

Czytaj także: Meta zamierza użyć danych Europejczyków do treningu AI

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *