Czy komentarz, na który właśnie odpowiedziałeś, napisał człowiek – czy wygenerował go bot? A e-mail od klienta? Może to efekt kilku promptów w LLM-ie? Komunikacja nigdy wcześniej nie była tak zautomatyzowana. To zmiana, która niesie ze sobą realne wyzwania i konsekwencje.
AI zmienia krajobraz cyfrowy
Nie tylko media społecznościowe, ale właściwie cały Internet jest zalewany coraz większą ilością treści tworzonych przez sztuczną inteligencję. Teksty, obrazy, a nawet filmy — coraz częściej nie mają autora z krwi i kości.
Najnowsze modele AI, takie jak Chat GPT czy inne generatory, tworzą treści, które do złudzenia przypominają te tworzone przez ludzi. W krótkich formach nie ma zbyt wiele miejsca na potknięcia AI, więc trudno je odróżnić od tych napisanych ludzką ręką.
Ten trend z jednej strony fascynuje, a z drugiej niepokoi.
Widzimy to choćby na przykładzie viralu — generowania ilustracji w stylu studia Ghibli, które całkiem niedawno zalały internet. Wiemy, że to działanie wątpliwe etycznie, a nadal nie możemy się oprzeć pokusie, aby stworzyć swoją wersję obrazka.
Deep fake: nagrania, które wyprowadzają nas na manowce
Gdy automatycznie generowane treści są rozpowszechniane na dużą skalę, a narzędzia trafiają w nieodpowiednie ręce, potencjalne zagrożenia stają się faktami. Sianie dezinformacji staje się dziecinnie proste.
Za pomocą niewielkich zasobów, lub przy udziale niedużej grupy ludzi, można manipulować nastrojami społecznymi i wprowadzać spore zamieszanie.
Jak? Choćby przez zaawansowanie deep fake, czyli przerobione filmy i zdjęcia, np. z wystąpień polityków czy znanych osób. Do tego dochodzi aktywność botów, które udając ludzi, reagują, komentują i udostępniają nieprawdziwe treści w mediach społecznościowych. Tworzą w ten sposób iluzję zainteresowania.
Rozpoznawanie tego, co jest prawdą, a co wygenerowaną fikcją, jest trudne nie tylko dla zwykłych Kowalskich. To także wyzwanie dotyczące firm monitorujących i analizujących ruch w sieci. Jak z tym walczymy? Na ogień odpowiadamy ogniem — używamy technologii, aby wykrywać… technologię.
Według badań University College London (UCL), deepfakes są jednym z największych zagrożeń technologicznych dla współczesnego społeczeństwa.
Rosnąca liczba takich fałszywych materiałów podważa ogólne zaufanie do władz i oficjalnych kanałów informacji. To może prowadzić do sytuacji, w której ludzie przestają wierzyć w jakiekolwiek fakty. Niektórzy wieszczą nawet „apokalipsę informacyjną” oraz to, że część z nas stanie się całkowicie obojętna nawet na prawdziwe informacje.
Większość ludzi ma wciąż niską świadomość istnienia deep fakes. Co istotne, nawet zrozumienie tego zjawiska nie sprawi, że będziemy w stanie bezbłędnie rozpoznawać nieprawdziwe treści.
Wykrywanie deep fakes jest trudne, bo z zasady mają one wyglądać bardzo prawdopodobnie. Firmy takie jak Meta, Google czy Microsoft pracują nad odpowiednimi narzędziami (a w tym samym czasie, sami tworzą różne formy generatywnego AI), jednak to wymaga czasu i sporych zasobów. Ręczne wykrywanie takich materiałów również jest pracochłonne i zdarza się, że zawodne.
W czeluściach Internetu można już zlecić wykonanie deep fake jak zwyczajną usługę. Coraz bardziej kreatywni przestępcy sprzedają też dostęp do zaawansowanych narzędzi i wiedzy technicznej, umożliwiając tworzenie nieprawdziwych materiałów osobom bez specjalistycznych umiejętności.
Brzmi to, jakby rzeczywistość rodem z serialu „Black Mirror” była tuż za rogiem. Moim celem nie jest jednak straszenie, a uświadomienie, że AI to tylko i aż technologia. Mogą z niej korzystać zarówno Kowalscy, jak i czarne charaktery.

Generatywne AI vs. człowiek. Kto tworzy lepsze treści?
Garść statystyk dla zobrazowania skali. Naukowcy przeanalizowali około 2,5 miliona postów z trzech głównych platform: Medium, Quora i Reddit, w okresie od stycznia 2022 do października 2024 (Reddit do lipca 2024). Główną miarą w badaniu był ustalony przez nich wskaźnik AAR – AI Attribution Rate, który pokazuje, jaki procent treści został utworzony przez AI.
Badanie wykazało bardzo gwałtowny wzrost liczby treści generowanych przez AI, od grudnia 2022 roku. To idealnie zbiegło się z popularyzacją modeli takich jak Chat GPT. Na każdej z platform zaobserwowano specyficzne trendy:
- Medium: Wskaźnik AAR wzrósł z zaledwie 1,7% do aż 37% między styczniem 2022 a październikiem 2024.
- Quora: Podobny wzrost – z 2,0% do niecałych 39% w tym samym okresie.
- Reddit: Dużo wolniejszy wzrost – z 1,3% do zaledwie 2,45%.
Co to oznacza?
Teksty, pisane przez AI na Medium i Quora w tym okresie, stosują mniej słów typowych dla ludzkiego stylu wypowiedzi. To właśnie dobór tekstu, charakterystyczny dla AI, pozwala wykryć „autora” treści.
Wniosek jest prosty: na Reddicie cały czas utrzymuje się wysoka liczba postów z bardziej ludzkim leksykonem. Na Medium natomiast tematy technologiczne miały najwyższy wskaźnik treści tworzonych przez AI.
Co ciekawe, według badań, teksty generowane przez AI są zazwyczaj bardziej obiektywne i ustandaryzowane, a te pisane przez prawdziwe osoby — elastyczne i nieformalne. Co jest skuteczniejsze?
Treści tworzone przez ludzi otrzymują średnio więcej polubień (127,59 vs 69,15) i komentarzy (7,38 vs 4,16), w porównaniu do AI. Zauważono też, że autorzy z mniejszą liczbą obserwujących na Medium częściej publikują artykuły generowane przez AI (średnio AAR 54,02%), podczas gdy u popularniejszych autorów wskaźnik ten jest niższy niż 25,00%.
Możemy zatem przypuszczać, że tzw. human touch w treściach znacząco wpływa na zaangażowanie odbiorców. Mimo to tekstów napisanych przez AI mamy coraz więcej.
Najnowsze badania ze stycznia 2025 roku pokazują, że ilość treści generowanych przez AI w wynikach wyszukiwania Google osiągnęła rekordowy poziom 19,10%. To znaczący wzrost w porównaniu do 18,07% w listopadzie 2024 i ogromna zmiana w stosunku do marca 2024, kiedy wskaźnik wynosił 10,18%.
Dla porównania, przed udostępnieniem modelu GPT-2, treści AI wykrywano jedynie w 2,3% badanych stron www. W ciągu pięciu lat ten odsetek wzrósł prawie dziesięciokrotnie.
Pomimo wprowadzenia przez Google polityki dotyczącej wartościowych treści, w sierpniu 2022 roku, nadal rośnie odsetek contentu generowanego przez AI.
Liczy się dystrybucja
Według raportu firmy Imperva, w 2023 roku prawie połowa całego ruchu w internecie nie była tworzona przez ludzi. Aż 32% to szkodliwe automaty, a 17,6% to „dobre” boty (np. te odpowiedzialne za wyszukiwarki).
Rozwój sztucznej inteligencji sprawia, że boty stają się coraz bardziej zaawansowane. Już piąty rok z rzędu mówimy o tendencji wzrostowej. Demokratyzacja technologii dzięki AI powoduje, że pojawia się więcej prostych botów. Łatwiej je stworzyć, ale też wychwycić i ukrócić ich działanie.
Zaawansowane boty natomiast używają sprytnych technik maskowania, takich jak korzystanie z prywatnych proxy, co stanowi ponad 25% ruchu szkodliwych automatów.
Social media miały średnio ponad 42% ruchu pochodzącego od złośliwych botów. Wykorzystywane są one m.in. do:
- Zbierania treści i danych bez zgody
- Przejmowania i tworzenia fałszywych kont
- Testowania skradzionych kart kredytowych
- Rozsyłania spamu z nieprawdziwymi informacjami
- Wzmacniania propagandy
Taka działalność może mieć poważne konsekwencje. Podważa wiarygodność platform i zniekształca wszelkie wskaźniki oparte na liczbie użytkowników czy interakcji w mediach społecznościowych.
Doskonałym przykładem są kupowani przez niektóre marki czy influencerów „followersi” (czyli nieprawdziwe konta), a także ataki botów generujących nieprawdziwe opinie, np. w wizytówkach Google. Tutaj pomocne są narzędzia monitoringu mediów, które sprawnie wykrywają takie nagłe wzrosty (lub spadki), i pomaga szybko zareagować na ewentualny kryzys marki.
Czy marki potrafią korzystać z AI?
Dyskusja o treściach AI często skupia się na deep fake i przypadkowym szumie informacyjnym (a czasem złośliwych działaniach), jednak to nie jedyne zastosowanie technologii.
Warto zauważyć, że znaczna część treści tworzonych przez AI ma komercyjny charakter. Badanie Semrush przeprowadzone na ponad 2600 firmach pokazuje, że 67% z nich używa narzędzi AI do tworzenia treści marketingowych lub optymalizacji SEO.
Firmy wykorzystują sztuczną inteligencję do tworzenia różnorodnych formatów treści:
- 58% tworzy posty na blogi
- 55% generuje treści do mediów społecznościowych
- 49% produkuje krótkie artykuły
- 29% tworzy newslettery i wiadomości email
Treści produkowane przez AI na konkretne rynki mogą być równie atrakcyjne (a czasem bardziej) dla odbiorców, niż te pisane przez ludzi, którzy np. nie znają lokalnych realiów. W badaniu z udziałem ponad 700 konsumentów z USA, opis produktu stworzony przez AI był preferowany przez 65% respondentów w stosunku do 35% dla treści napisanej przez człowieka.
Firmy korzystające z AI w content marketingu raportują znaczące korzyści:
- 68% zauważa wzrost zwrotu z inwestycji (ROI)
- 65% obserwuje poprawę wyników w wyszukiwarkach (SEO)
- 76% potwierdza, że treści generowane przez AI pojawiają się w wynikach wyszukiwania
Podsumowując, współpraca człowieka z maszyną może dawać bardzo dobre efekty. Warto jednak podejść do tego rozważnie i korzystać z narzędzi, a nie się nimi w 100% wyręczać.
Wyzwania w monitoringu sieci
Trendy jasno pokazują, że udział sztucznych treści w monitorowanych źródłach rośnie. Nieistniejące osoby dzielą się wygenerowanymi przez AI materiałami i generują zasięg przez komentarze. Boty często odpowiadają same sobie.
Problem staje się dość złożony.
Z jednej strony, musimy sobie radzić z typowymi zagrożeniami, takimi jak działalność botów i rozpowszechnianie treści tworzonych przez AI. Z drugiej, powinniśmy również uwzględnić celowo tworzone treści komercyjne, które mają uzasadnione biznesowo cele.
Wykrycie i oddzielenie treści generowanych przez AI, oraz (to zupełnie inna para kaloszy!) rozpowszechnianych przez boty, jest poważnym wyzwaniem dla monitoringu internetu.
Jesteśmy o krok do przodu: narzędzia rozpoznają wzorce i, szczególnie w przypadku dłuższych treści, mogą wykrywać te produkowane przez AI. Wciąż jednak nawet najwięksi pracują nad rozwiązaniami, które pozwoliłyby w pełni zautomatyzować filtrowanie wygenerowanych informacji.
Wymaga to rozwoju zaawansowanych narzędzi wykrywania oraz ciągłego dostosowywania strategii filtrowania. Na ten moment jednak wprawne oko ludzkiego analityka jest potrzebne, aby oddzielić nierelewantne treści.
Internet ludzi i maszyn
Internet zmienia się w „środowisko mieszane”, w którym treści tworzone przez ludzi i narzędzia AI przeplatają się ze sobą. Zmieniają się proporcje oraz sposób komunikacji.
Monitoring to już nie tylko liczba wzmianek czy zasięgi, ale przede wszystkim rozumienie kontekstu, a także rozpoznawanie głosu prawdziwych użytkowników. Zdiagnozowanie potrzeb grup odbiorców jest wyzwaniem, jednak wartym swojej ceny. Chcemy przecież komunikować do ludzi z krwi i kości, nie do botów.

Autor artykułu: Sławek Paśmionka
Client Solutions Manager w Brand24
Przeczytaj również: Co AI zmieniło w budowie produktów?



1 Komentarz