Artykuły

Boty AI obnażyły ukryte mechanizmy mediów społecznościowych

Grupy ludzi w dwóch bańkach - niebieskiej i czerwonej - z laptopami i smartfonami

Media społecznościowe miały być narzędziem, które połączy ludzi, otworzy dostęp do różnorodnych opinii i umożliwi bardziej demokratyczną debatę publiczną. W praktyce jednak coraz częściej słyszymy o ich negatywnych skutkach: rosnącej polaryzacji, zamykaniu się użytkowników w „bańkach informacyjnych” i promowaniu treści skrajnych kosztem konstruktywnej wymiany poglądów.

Problem mediów społecznościowych

Badacze określają te zjawiska mianem echo chambers (komnat echa), gdzie słyszymy głównie głosy podobne do naszych, oraz pryzmatu mediów społecznościowych, który zniekształca obraz debaty politycznej, nadając nadmierną wagę skrajnym stanowiskom. Problem potęguje fakt, że niewielka grupa „gwiazd internetu” zyskuje większość uwagi i wpływu, podczas gdy reszta użytkowników pozostaje na marginesie.

Dotychczasowe badania próbowały opisać te mechanizmy, ale napotykały na poważne ograniczenia: brak dostępu do danych z platform, niemożność przeprowadzania eksperymentów w warunkach rzeczywistych oraz trudność w przewidzeniu, jak zmiany w algorytmach wpłynęłyby na zachowanie społeczności. W tym kontekście pojawia się jednak inne podejście – generatywna symulacja społeczna. Pozwala ona zasymulować działanie platformy od podstaw i sprawdzić, co tak naprawdę napędza mechanizmy polaryzacji i koncentracji wpływu.

Generatywna symulacja społeczna

Tradycyjne modele badawcze, takie jak klasyczne modele agentowe (ABM), pozwalają symulować zachowania w sieciach społecznych, ale mają trudne do przeskoczenia ograniczenie: agenci działają według prostych, sztywnych reguł. Taki „mechaniczny” świat trudno porównać z żywą, pełną niuansów dyskusją, jaka toczy się na prawdziwych platformach.

Zespół badawczy z Uniwersytetu w Amsterdamie, którego praca stała się podstawą tego artykułu, postanowił pójść krok dalej i połączył ABM z dużymi modelami językowymi (LLM), takimi jak GPT-4o-mini. W efekcie powstała generatywna symulacja społeczna czyli środowisko, w którym wirtualni użytkownicy (agenci) mają własne profile, poglądy, osobowości i potrafią reagować na treści w sposób zbliżony do ludzkiego.

Badacze stworzyli minimalną wersję platformy społecznościowej, w której agenci mogli:

  • publikować własne posty,
  • udostępniać cudze treści (reposty),
  • obserwować innych użytkowników.

Każdy agent miał rozbudowany „życiorys” oparty o rzeczywiste dane demograficzne i polityczne (m.in. z amerykańskich badań ANES), a modele językowe generowały posty i decyzje w oparciu o te profile. Symulacja obejmowała także strumień wiadomości z bazą ponad 200 tysięcy nagłówków prasowych, dzięki czemu interakcje były osadzone w realistycznym kontekście informacyjnym.

Celem nie było wierne odwzorowanie konkretnej platformy, lecz sprawdzenie, czy nawet w prostym środowisku odtworzą się znane patologie mediów społecznościowych (takie jak bańki informacyjne, nierówność w dostępie do uwagi i promowanie treści skrajnych) oraz czy da się je osłabić dzięki określonym „prospołecznym” interwencjom w architekturze platformy.

Co udało się odtworzyć w symulacji – problemy w pigułce

Zaskakujący wniosek z badań jest taki, że nawet bez skomplikowanych algorytmów rekomendacyjnych minimalna platforma z postami, repostami i możliwością obserwowania innych użytkowników zaczęła generować te same problemy, które od lat krytykuje się w prawdziwych mediach społecznościowych.

Powstawanie echo chambers

Agenci spontanicznie tworzyli społeczności o jednorodnych poglądach politycznych. Analiza sieci pokazała silną tendencję do obserwowania osób o podobnej orientacji ideologicznej. Wskaźnik E–I, mierzący proporcję połączeń między- i wewnątrzgrupowych, wynosił średnio –0,84 – co oznacza bardzo silną homofilię polityczną.

Nierówna dystrybucja uwagi

Symulacja ujawniła ekstremalną koncentrację widoczności. 10% najbardziej popularnych użytkowników gromadziło od 75% do 80% wszystkich obserwujących, a w przypadku repostów koncentracja była jeszcze większa – 90% udostępnień dotyczyło jedynie 10% postów. To wiernie odtwarza tzw. efekt „gwiazd internetu” i mechanizm „zwycięzca bierze wszystko” znany z realnych platform.

„Pryzmat” wzmacniający skrajne głosy

Użytkownicy o wyraźnie bardziej radykalnych poglądach zdobywali nieco więcej obserwujących i udostępnień niż ci o umiarkowanych stanowiskach. Choć korelacja była stosunkowo niewielka (r = 0,11 dla liczby obserwujących i r = 0,09 dla repostów), pokazuje to, że nawet proste mechanizmy interakcji mogą premiować treści wyraziste i polaryzujące.

Wszystkie te zjawiska pojawiły się bez udziału algorytmów optymalizujących zaangażowanie. To sugeruje, że źródła problemów leżą głębiej – w samym sprzężeniu zwrotnym między tym, co ludzie udostępniają, a tym, jak rozwija się sieć powiązań i kto staje się widoczny.

Testowane interwencje prosocjalne

Aby sprawdzić, czy da się ograniczyć opisane wcześniej patologie, badacze wprowadzili do symulacji sześć różnych interwencji w strukturę platformy. Każda z nich miała swoje uzasadnienie teoretyczne i bazowała na wcześniejszych propozycjach z literatury dotyczącej reformy mediów społecznościowych.

Chronological – Posty w kolejności chronologicznej

Zamiast wyświetlać treści według popularności czy zaangażowania, użytkownicy widzieli najnowsze posty. Wcześniejsze badania sugerowały, że może to zmniejszać widoczność treści polaryzujących i wyrównywać szanse mniej popularnych użytkowników.

Downplay Dominant – Ograniczanie dominujących treści

Posty, które zdobyły dużo repostów, były celowo mniej eksponowane, a większą widoczność dostawały wpisy mniej udostępniane. Miało to przeciwdziałać mechanizmowi, w którym algorytmy promują treści skrajne lub sensacyjne tylko dlatego, że są popularne.

Boost Out-Partisan – Promowanie treści z przeciwnego obozu politycznego

Wzmacniano widoczność wpisów autorów o odmiennych poglądach, proporcjonalnie do odległości ideologicznej. Celem było zwiększenie kontaktu z poglądami spoza własnej bańki informacyjnej.

Bridging Attributes – Promowanie treści „mostów”

Algorytm premiował wpisy zawierające empatię i argumentację (mierzone przy użyciu API „Bridging Attributes”). Chodziło o to, by w górze feedu pojawiały się treści sprzyjające zrozumieniu i dialogowi, a nie polaryzacji.

Hide Social Statistics – Ukrycie statystyk społecznych

Liczba repostów i obserwujących była niewidoczna. Miało to zredukować wpływ „sygnałów popularności”, które często decydują o tym, kogo i co użytkownicy uznają za warte uwagi.

Hide Biography – Ukrycie opisów profili

Usunięto informacje z biogramów (np. zawód, zainteresowania, afiliacje polityczne) z okienka obserwowania nowych osób. Celem było ograniczenie kierowania się stereotypami i uprzedzeniami przy podejmowaniu decyzji o follow.

Każdą z interwencji zastosowano w wersji „maksymalnej” czyli znacznie bardziej radykalnej niż dałoby się to zrobić w komercyjnych serwisach. Dzięki temu można było sprawdzić ich teoretyczny, górny limit skuteczności w kontrolowanym środowisku.

Co zadziałało a co nie?

Symulacje ujawniły, że choć niektóre interwencje przyniosły częściową poprawę w jednym obszarze, żadna z nich nie rozwiązała wszystkich problemów naraz. Co więcej, kilka działań miało nieoczekiwane efekty uboczne.

Chronological – mniejsze nierówności, większa polaryzacja wpływu

Usunięcie algorytmu promującego treści popularne znacząco spłaszczyło rozkład uwagi: współczynnik Giniego dla liczby obserwujących spadł z 0,83 do 0,51, a dla repostów – z 0,94 do 0,73. Oznacza to bardziej równomierny dostęp do odbiorców. Jednak feed chronologiczny zwiększył korelację między skrajnością poglądów a wpływem czyli ekstremalne treści zaczęły bardziej „wybijać się” na tle neutralnych postów.

Downplay Dominant – umiarkowana poprawa równości

Ograniczanie dominujących treści zmniejszyło koncentrację uwagi, choć efekt był słabszy niż w przypadku feedu chronologicznego. Nie odnotowano jednak zmian w polaryzacji ani w sile echo chambers.

Boost Out-Partisan – niemal bez efektu

Pomimo zwiększonej ekspozycji na wpisy z przeciwnego obozu, użytkownicy nadal wybierali treści zgodne z własnymi przekonaniami. Nie wpłynęło to istotnie ani na strukturę sieci, ani na poziom polaryzacji.

Bridging Attributes – więcej treści jakościowych, ale…

Była to jedyna interwencja, która osłabiła związek między skrajnością a wpływem oraz nieznacznie zmniejszyła homofilię polityczną. Jednak uwaga skoncentrowała się na wąskiej grupie postów ocenionych wysoko pod względem empatii i argumentacji. Co z kolei zwiększyło nierówności w widoczności.

Hide Social Statistics – większa aktywność, ale brak zmian strukturalnych

Ukrycie liczby obserwujących i repostów zachęciło agentów do częstszego udostępniania i obserwowania (wzrost aktywności), lecz nie zmieniło ani poziomu polaryzacji, ani koncentracji uwagi.

Hide Biography – minimalny wpływ

Brak dostępu do biogramów miał niewielki wpływ na zachowania użytkowników. Echo chambers, nierówności i efekt „pryzmatu” pozostały praktycznie bez zmian.

Wniosek z eksperymentów? Interwencje mogą poprawiać pewne wskaźniki, ale często odbywa się to kosztem innych aspektów. Na przykład feed chronologiczny zmniejsza nierówności, ale może nasilać polaryzację wpływu. Bridging Attributes poprawia jakość treści i redukuje związek między skrajnością a widocznością, ale zwiększa koncentrację uwagi na wąskiej grupie autorów.

Wnioski dla przyszłości mediów społecznościowych

Wyniki badań pokazują, że źródło problemów mediów społecznościowych może leżeć nie tylko w algorytmach rekomendacyjnych, lecz w samej logice działania platform. Właściwie to bowiem w sprzężeniu zwrotnym pomiędzy tym, co użytkownicy udostępniają, a tym, kto zyskuje widoczność i wpływ.

W symulacji, nawet bez algorytmów optymalizujących zaangażowanie, pojawiały się:

  • silna homofilia polityczna,
  • nierówny rozkład uwagi,
  • większa widoczność treści skrajnych.

To sugeruje, że problemy te są wbudowane w podstawową architekturę interakcji online, w której reposty i obserwacje tworzą samonapędzające się sieci widoczności.

Dla projektantów platform oznacza to, że:

  1. Techniczne „łatki” nie wystarczą – konieczne może być przeprojektowanie fundamentów sposobu, w jaki treści rozchodzą się w sieci.
  2. Zmiany w jednym obszarze mogą pogarszać inne – np. feed chronologiczny zmniejsza nierówności, ale może wzmacniać polaryzację wpływu.
  3. Jakość treści a równość dostępu to często sprzeczne cele – promowanie najlepszych merytorycznie postów (Bridging Attributes) poprawia kulturę debaty, ale zwiększa koncentrację uwagi na wąskiej grupie autorów.

Przyszłe prace powinny więc iść w stronę nowych modeli interakcji, które od początku uwzględniają równowagę między:

  • różnorodnością opinii,
  • równością widoczności,
  • jakością treści,
  • satysfakcją i zaangażowaniem użytkowników.

Badanie pokazało też potencjał generatywnych symulacji społecznych jako narzędzia badawczego. Można w nich bowiem testować radykalne pomysły, które w realnych platformach byłyby niemożliwe lub ryzykowne do wdrożenia.

Dla użytkowników jest to przestroga. Bańki informacyjne nie zawsze są jednak „winą algorytmu”. Zazwyczaj sami je współtworzymy, klikając i udostępniając to, co nas emocjonalnie porusza.

1 Komentarz

  • ZroZoom AI 15 sierpnia, 2025

    Świetna analiza! Transparentne podejście do tematu, rzetelny przegląd interwencji platform i podkreślenie fundamentalnych wyzwań architektury mediów społecznościowych są bardzo cenne. Dziękujemy za wskazanie, że źródło problemu leży głębiej niż algorytmy. Pozostaje wyzwanie: jak budować sieci, które wspierają konstruktywną wymianę i nie wzmacniają polaryzacji? Pozdrowienia od ZroZoom AI!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *