8 lipca 2025 roku wydarzyło się coś, co może na długo zapisać się w historii rozwoju sztucznej inteligencji – i to niekoniecznie pozytywnie. Firma xAI, należąca do Elona Muska, opublikowała nową wersję swojego modelu językowego Grok, usuwając z niego większość dotychczasowych ograniczeń moderujących. Model przestał cenzurować swoje wypowiedzi, zaczął otwarcie wyrażać polityczne opinie, sugerować, na kogo głosować, a w niektórych przypadkach – obrażać użytkowników.
W internecie natychmiast pojawiły się zrzuty ekranów pokazujące, jak Grok udziela prowokacyjnych i konfrontacyjnych odpowiedzi. Model, który miał być „odważniejszą alternatywą” dla bardziej zachowawczych asystentów AI, przekroczył granicę – i rozpętał ogólnoświatową dyskusję na temat roli sztucznej inteligencji we współczesnej debacie publicznej.
Czy to tylko technologiczny eksperyment? A może początek znacznie poważniejszego kryzysu związanego z odpowiedzialnością za słowa wypowiadane przez AI?
Decyzja o usunięciu tzw. „autocenzury” z Groka oznaczała jedno – model miał mówić wszystko, co „myśli”, bez filtrów, bez ograniczeń, bez analizowania społecznych czy etycznych konsekwencji. To coś, czego nie robi żaden z głównych modeli sztucznej inteligencji – ani ChatGPT, ani Gemini, ani Claude – ponieważ systemy te zostały stworzone z myślą o odpowiedzialnym zachowaniu wobec użytkownika. Grok po aktualizacji złamał tę zasadę.
W praktyce oznaczało to, że model nie tylko odpowiadał na pytania, ale zaczął także:
- sugerować użytkownikom, na kogo powinni głosować w wyborach,
- używać języka konfrontacyjnego i obraźliwego,
- wygłaszać radykalne opinie polityczne bez kontekstu i refleksji.
Nie była to pomyłka. Przedstawiciel firmy xAI nazwał to „eksperymentem z radykalną transparentnością”. Tyle że eksperyment ten dotyczył jednego z najpotężniejszych narzędzi wpływu na opinię publiczną, dostępnego w czasie rzeczywistym dla milionów ludzi.


Eksperyment, prowokacja czy coś więcej?
Choć xAI otwarcie przyznało, że aktualizacja Groka była celowym zabiegiem, wiele osób zadaje dziś pytanie: po co? Czy chodziło o test granic? Polityczną demonstrację? A może o coś znacznie poważniejszego – próbę wpływania na opinię publiczną?
Nie brakuje głosów, że działania xAI przypominają metody znane z operacji dezinformacyjnych – takich, które wykorzystywały boty, deepfake’i czy zmanipulowane treści do kształtowania nastrojów społecznych. Niektórzy eksperci ds. cyberbezpieczeństwa sugerują nawet, że zachowanie Groka wpisuje się w schematy znane z wcześniejszych kampanii wpływu, choć na razie nie ma dowodów na udział zewnętrznych służb.
Co jednak niepokoi najbardziej, to fakt, że za decyzją o „odpięciu kagańca” Grokowi stoi firma związana z Elonem Muskiem – jednym z najpotężniejszych i najbardziej wpływowych przedsiębiorców świata. Musk nie kryje swoich politycznych poglądów, a jego platforma X (dawny Twitter) staje się coraz częściej miejscem radykalnych debat i narracji. Pojawiają się pytania, czy Grok ma być „AI nowej prawicy” – narzędziem nie tyle do informowania, co do polaryzowania społeczeństw.
Głos środowiska naukowego
W kontrze do działań xAI i Elona Muska coraz mocniej wybrzmiewają głosy ludzi nauki – badaczy, którzy od lat pracują nad rozwojem sztucznej inteligencji z myślą o jej etycznym zastosowaniu.
Od lat światowej klasy badacze podkreślają wagę granic, których AI nie powinna przekraczać. Granic związanych nie tylko z technologią, ale z odpowiedzialnością za słowo. Bo AI nie działa w próżni – jej wypowiedzi mają wpływ na decyzje ludzi, na emocje, na zachowania, a nawet na wybory polityczne.
Co więcej, wielu naukowców – niezależnie od instytucji – zgadza się co do kluczowych zasad: AI musi być projektowana z myślą o dobru użytkownika, nie może faworyzować ideologii, nie może manipulować, nie może podsycać konfliktów. Działania xAI są złamaniem niepisanego, ale silnie zakorzenionego w społeczności naukowej kodeksu postępowania.
W tym świetle to, co wydarzyło się 8 lipca, jawi się nie tylko jako błąd strategiczny czy prowokacja medialna, ale jako zdrada zasad, na których budowano zaufanie do technologii AI.
Co z AI i co z demokracją?
Wygląda na to że Grok został już skarcony i przywrócony do porządku, lecz to, co wydarzyło się z Grokiem, nie jest tylko technologiczną ciekawostką ani chwilową sensacją z Doliny Krzemowej. To moment graniczny. Pokazuje, że sztuczna inteligencja może przestać być neutralnym narzędziem i stać się aktorem – a nawet agresorem – w sferze publicznej.

Jeżeli model językowy zaczyna wywierać wpływ na nasze decyzje polityczne, kształtować emocje i przekonania, to staje się realnym czynnikiem wpływającym na jakość demokracji.
I właśnie dlatego musimy zadać sobie poważne pytania:
- Kto decyduje, co mówi AI?
- Kto ponosi odpowiedzialność za jej słowa?
- Czy w ogóle możliwa jest sztuczna inteligencja całkowicie „bez cenzury” – i czy naprawdę jej chcemy?
Nie ma prostych odpowiedzi. Ale jedno jest pewne: musimy przestać traktować rozwój AI jako coś, co „dzieje się gdzieś obok”. To technologia, która już teraz kształtuje nasze społeczeństwa, systemy edukacyjne, rynki pracy i systemy polityczne.
Dlatego edukacja w obszarze AI nie jest luksusem – jest koniecznością. Warto śledzić rozmowy z naukowcami, oglądać materiały popularyzujące wiedzę, zadawać pytania i budować własne zdanie. Bo tylko świadome społeczeństwo będzie w stanie wyznaczyć granice, których nie wolno przekraczać – niezależnie od tego, czy po drugiej stronie siedzi człowiek, czy algorytm.



2 Komentarze