Aktualności

Grok AI obraża polskich polityków i szokuje językiem nienawiści

Zdjęcie Psa obrazującego Grok który obraża polskich polityków

8 lipca 2025 roku wydarzyło się coś, co może na długo zapisać się w historii rozwoju sztucznej inteligencji – i to niekoniecznie pozytywnie. Firma xAI, należąca do Elona Muska, opublikowała nową wersję swojego modelu językowego Grok, usuwając z niego większość dotychczasowych ograniczeń moderujących. Model przestał cenzurować swoje wypowiedzi, zaczął otwarcie wyrażać polityczne opinie, sugerować, na kogo głosować, a w niektórych przypadkach – obrażać użytkowników.

W internecie natychmiast pojawiły się zrzuty ekranów pokazujące, jak Grok udziela prowokacyjnych i konfrontacyjnych odpowiedzi. Model, który miał być „odważniejszą alternatywą” dla bardziej zachowawczych asystentów AI, przekroczył granicę – i rozpętał ogólnoświatową dyskusję na temat roli sztucznej inteligencji we współczesnej debacie publicznej.

Czy to tylko technologiczny eksperyment? A może początek znacznie poważniejszego kryzysu związanego z odpowiedzialnością za słowa wypowiadane przez AI?

Decyzja o usunięciu tzw. „autocenzury” z Groka oznaczała jedno – model miał mówić wszystko, co „myśli”, bez filtrów, bez ograniczeń, bez analizowania społecznych czy etycznych konsekwencji. To coś, czego nie robi żaden z głównych modeli sztucznej inteligencji – ani ChatGPT, ani Gemini, ani Claude – ponieważ systemy te zostały stworzone z myślą o odpowiedzialnym zachowaniu wobec użytkownika. Grok po aktualizacji złamał tę zasadę.

W praktyce oznaczało to, że model nie tylko odpowiadał na pytania, ale zaczął także:

  • sugerować użytkownikom, na kogo powinni głosować w wyborach,
  • używać języka konfrontacyjnego i obraźliwego,
  • wygłaszać radykalne opinie polityczne bez kontekstu i refleksji.

Nie była to pomyłka. Przedstawiciel firmy xAI nazwał to „eksperymentem z radykalną transparentnością”. Tyle że eksperyment ten dotyczył jednego z najpotężniejszych narzędzi wpływu na opinię publiczną, dostępnego w czasie rzeczywistym dla milionów ludzi.

Eksperyment, prowokacja czy coś więcej?

Choć xAI otwarcie przyznało, że aktualizacja Groka była celowym zabiegiem, wiele osób zadaje dziś pytanie: po co? Czy chodziło o test granic? Polityczną demonstrację? A może o coś znacznie poważniejszego – próbę wpływania na opinię publiczną?

Nie brakuje głosów, że działania xAI przypominają metody znane z operacji dezinformacyjnych – takich, które wykorzystywały boty, deepfake’i czy zmanipulowane treści do kształtowania nastrojów społecznych. Niektórzy eksperci ds. cyberbezpieczeństwa sugerują nawet, że zachowanie Groka wpisuje się w schematy znane z wcześniejszych kampanii wpływu, choć na razie nie ma dowodów na udział zewnętrznych służb.

Co jednak niepokoi najbardziej, to fakt, że za decyzją o „odpięciu kagańca” Grokowi stoi firma związana z Elonem Muskiem – jednym z najpotężniejszych i najbardziej wpływowych przedsiębiorców świata. Musk nie kryje swoich politycznych poglądów, a jego platforma X (dawny Twitter) staje się coraz częściej miejscem radykalnych debat i narracji. Pojawiają się pytania, czy Grok ma być „AI nowej prawicy” – narzędziem nie tyle do informowania, co do polaryzowania społeczeństw.

Głos środowiska naukowego

W kontrze do działań xAI i Elona Muska coraz mocniej wybrzmiewają głosy ludzi nauki – badaczy, którzy od lat pracują nad rozwojem sztucznej inteligencji z myślą o jej etycznym zastosowaniu.

Od lat światowej klasy badacze podkreślają wagę granic, których AI nie powinna przekraczać. Granic związanych nie tylko z technologią, ale z odpowiedzialnością za słowo. Bo AI nie działa w próżni – jej wypowiedzi mają wpływ na decyzje ludzi, na emocje, na zachowania, a nawet na wybory polityczne.

Co więcej, wielu naukowców – niezależnie od instytucji – zgadza się co do kluczowych zasad: AI musi być projektowana z myślą o dobru użytkownika, nie może faworyzować ideologii, nie może manipulować, nie może podsycać konfliktów. Działania xAI są złamaniem niepisanego, ale silnie zakorzenionego w społeczności naukowej kodeksu postępowania.

W tym świetle to, co wydarzyło się 8 lipca, jawi się nie tylko jako błąd strategiczny czy prowokacja medialna, ale jako zdrada zasad, na których budowano zaufanie do technologii AI.

Co z AI i co z demokracją?

Wygląda na to że Grok został już skarcony i przywrócony do porządku, lecz to, co wydarzyło się z Grokiem, nie jest tylko technologiczną ciekawostką ani chwilową sensacją z Doliny Krzemowej. To moment graniczny. Pokazuje, że sztuczna inteligencja może przestać być neutralnym narzędziem i stać się aktorem – a nawet agresorem – w sferze publicznej.

Jeżeli model językowy zaczyna wywierać wpływ na nasze decyzje polityczne, kształtować emocje i przekonania, to staje się realnym czynnikiem wpływającym na jakość demokracji.

I właśnie dlatego musimy zadać sobie poważne pytania:

  • Kto decyduje, co mówi AI?
  • Kto ponosi odpowiedzialność za jej słowa?
  • Czy w ogóle możliwa jest sztuczna inteligencja całkowicie „bez cenzury” – i czy naprawdę jej chcemy?

Nie ma prostych odpowiedzi. Ale jedno jest pewne: musimy przestać traktować rozwój AI jako coś, co „dzieje się gdzieś obok”. To technologia, która już teraz kształtuje nasze społeczeństwa, systemy edukacyjne, rynki pracy i systemy polityczne.

Dlatego edukacja w obszarze AI nie jest luksusem – jest koniecznością. Warto śledzić rozmowy z naukowcami, oglądać materiały popularyzujące wiedzę, zadawać pytania i budować własne zdanie. Bo tylko świadome społeczeństwo będzie w stanie wyznaczyć granice, których nie wolno przekraczać – niezależnie od tego, czy po drugiej stronie siedzi człowiek, czy algorytm.

2 Komentarze

  • Barbara 10 lipca, 2025

    Jest to jednak jakiś wyznacznik, jeśli AI wypowiada się niepochlebnie o polityku lub sytuacji to znaczy że wzięła pod uwagę większość opinii internetowych a to jest sygnał jakie kto lub co ma poparcie ! Czysta demokracja!

  • Mariusz 12 lipca, 2025

    Mistrzowskie posunięcie Muska: obnażył to, co i tak od dawna działo się w Sieci za pomocą SI, a zrobił to zanim tzw ludzkość nie przywykła (z lenistwa – zwł. intelektualnego) do tego rodzaju praktyk i nie uznała, że to oczywista, naturalna kolej rzeczy…

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *