Artykuły

Zegar zagłady bije najgłośniej w historii. Czy AI przyśpiesza odliczanie?

zegar zagłady

Wskazówki symbolicznego czasomierza, który od dekad mierzy puls naszego bezpieczeństwa, przesunęły się jeszcze bliżej krytycznego momentu. Zegar zagłady (ang. Doomsday Clock) wskazuje obecnie 89 sekund do północy. To najkrótszy dystans w historii tego projektu. Decyzja Rady Nauki i Bezpieczeństwa Bulletin of the Atomic Scientists nie pozostawia złudzeń: żyjemy w czasach bezprecedensowego ryzyka.

Tym razem jednak to nie tylko cień arsenałów nuklearnych czy postępujące zmiany klimatyczne spędzają sen z powiek naukowcom. Do grona egzystencjalnych zagrożeń z pełną mocą dołączyła sztuczna inteligencja. Technologia, która miała ułatwiać życie, w rękach nieodpowiedzialnych aktorów staje się katalizatorem chaosu.

Dlaczego wskazówki znów drgnęły?

Przesunięcie czasu o sekundę w przód może wydawać się kosmetyczną zmianą, ale w skali tego projektu to trzęsienie ziemi. Przez ostatnie dwa lata tkwiliśmy w punkcie 90 sekund. Przełamanie tej bariery jest sygnałem, że mechanizmy stabilizujące globalne bezpieczeństwo zawodzą. Eksperci z Chicago wskazują wprost: niekontrolowany rozwój technologii cyfrowych przestał być tylko tłem dla geopolityki. Stał się jej aktywnym, nieprzewidywalnym uczestnikiem.

Daniel Holz, przewodniczący Rady, podsumował to krótko:

„Ustawienie Zegara Zagłady na 89 sekund przed północą to ostrzeżenie dla wszystkich światowych przywódców.”

Sztuczna inteligencja działa tu jako akcelerator. Z jednej strony przyspiesza badania nad nowymi materiałami czy lekami, z drugiej obniża próg wejścia dla cyberataków i dezinformacji. To miecz obosieczny, którym wciąż uczymy się władać, często kalecząc się przy tym. Raport zauważa możliwość, że AI przyczynia się do zwiększenia ryzyka projektowania patogenów, co powoduje, że technologia ma wpływ również poza tzw. „cyberprzestrzenią”.

Oficjalne stanowisko Bulletin of the Atomic Scientists pokazuje, że przesunięcie Zegara Zagłady nie jest reakcją na jeden dominujący czynnik, lecz na niebezpieczne nawarstwienie się kilku kryzysów, które wzajemnie się wzmacniają. W centrum pozostaje ryzyko nuklearne, podsycane przez erozję międzynarodowych traktatów, brutalną normalizację wojny w Europie oraz coraz częstsze sygnały o gotowości do użycia broni jądrowej jako narzędzia nacisku politycznego. Równolegle narasta kryzys klimatyczny, którego skutki nie są już prognozą, lecz mierzalną destabilizacją systemów żywnościowych, energetycznych i społecznych, zwiększającą podatność państw na konflikty i migracje. Do tego dochodzą zagrożenia biologiczne, zarówno naturalne, jak i wynikające z badań prowadzonych w warunkach niewystarczającego nadzoru, oraz gwałtowny rozwój technologii, które wyprzedzają zdolność instytucji do ich kontrolowania. W raporcie wyraźnie wybrzmiewa myśl, że największym problemem nie jest samo istnienie tych ryzyk, lecz fakt, iż świat reaguje na nie fragmentarycznie, bez spójnej strategii i bez zaufania niezbędnego do międzynarodowej współpracy.

ONZ, czyli Organizacja Narodów Zjednoczonych, to globalna instytucja powołana po II wojnie światowej w celu zapobiegania konfliktom na skalę światową i tworzenia ram współpracy między państwami. Powstała w 1945 roku jako odpowiedź na doświadczenie totalnej wojny i przekonanie, że bezpieczeństwo międzynarodowe nie może być wyłącznie sumą interesów poszczególnych państw, lecz wymaga stałego forum dialogu i wspólnych reguł. Dziś zrzesza niemal wszystkie kraje świata, co czyni ją jedyną organizacją o tak uniwersalnym charakterze.

Organizacja Narodów Zjednoczonych opiera się na założeniu, że państwa będą skłonne ograniczać część swojej swobody działania w imię stabilności systemu międzynarodowego. Tymczasem największe mocarstwa coraz częściej traktują jej ustalenia jako punkt odniesienia, a nie jako realne zobowiązanie. Gdy normy ONZ zaczynają kolidować z interesami bezpieczeństwa, gospodarki lub wpływów politycznych, są one odkładane na bok lub reinterpretowane w sposób wygodny dla decydentów.

Zjawisko to nie dotyczy jednego państwa, lecz całego układu sił. Zarówno Stany Zjednoczone, jak i inne potęgi globalne wykorzystują swoją pozycję, by omijać lub blokować decyzje, które mogłyby ograniczyć ich pole manewru. Prawo weta w Radzie Bezpieczeństwa, pierwotnie pomyślane jako mechanizm stabilizujący, w praktyce często prowadzi do paraliżu instytucji wtedy, gdy stawką są interesy największych graczy. W efekcie ONZ pozostaje forum deklaracji i apeli, ale coraz rzadziej staje się skutecznym narzędziem egzekwowania wspólnych zasad.

Ten zwrot ku polityce interesu narodowego ma długofalowe konsekwencje. Osłabia zaufanie między państwami, podkopuje znaczenie prawa międzynarodowego i wzmacnia logikę rywalizacji zamiast współpracy.

Stany Zjednoczone, Chiny i Rosja intensywnie rozwijają zastosowania AI w sektorze wojskowym, wywiadowczym i informacyjnym, mimo że ONZ konsekwentnie ostrzega przed autonomicznymi systemami broni oraz przed delegowaniem decyzji o użyciu siły algorytmom. W tych krajach logika rywalizacji strategicznej wyraźnie przeważa nad postulatami międzynarodowej kontroli i przejrzystości.

Równie istotnym problemem jest podejście do dezinformacji. Państwa, które postrzegają przestrzeń informacyjną jako narzędzie wpływu, nie są zainteresowane globalnymi standardami oznaczania treści generowanych przez AI ani ograniczaniem operacji psychologicznych. Z punktu widzenia ONZ podważa to zaufanie społeczne i stabilność demokracji. Z punktu widzenia państw prowadzących takie działania jest to element nowoczesnej projekcji siły.

W efekcie powstaje sytuacja paradoksalna. ONZ formułuje coraz wyraźniejsze ostrzeżenia i normy etyczne dotyczące AI, ale kraje dysponujące największym potencjałem technologicznym traktują je selektywnie lub odkładają na przyszłość. To właśnie ta luka między globalnymi deklaracjami a realną polityką państw jest jednym z powodów, dla których AI coraz częściej pojawia się w raportach o zagrożeniach systemowych, a nie wyłącznie jako neutralne narzędzie postępu.

Dezinformacja napędzana algorytmami

Najbardziej widocznym wpływem AI na stabilność świata jest niepewność prawdy. Deepfake i manipulacja obrazem osiągnęły poziom, w którym odróżnienie fałszu od rzeczywistości bez specjalistycznych narzędzi graniczy z cudem. W roku wyborczym, który objął znaczną część globu, generowane maszynowo treści zalały media społecznościowe, podważając zaufanie do instytucji demokratycznych.

Problem nie leży tylko w jakości fałszywek, ale w skali ich dystrybucji. Algorytmy rekomendacyjne, zamiast filtrować szum, często promują treści wywołujące skrajne emocje. To tworzy doskonałe podłoże dla polaryzacji społecznej, która paraliżuje zdolność państw do reagowania na realne kryzysy. Kiedy nie możemy zgodzić się co do podstawowych faktów, nie możemy wspólnie rozwiązywać problemów.

AI na polu bitwy: autonomiczne ryzyko

Jeszcze mroczniejszy scenariusz rysuje się w sferze militarnej. Integracja systemów AI z infrastrukturą wojskową rodzi pytania o kontrolę nad użyciem siły. Autonomiczne systemy uzbrojenia (LAWS) mogą podejmować decyzje o ataku znacznie szybciej, niż jest w stanie zareagować ludzki operator. To zjawisko, nazywane „wojną błyskawiczną” (flash war), może doprowadzić do eskalacji konfliktu z błahego powodu, wynikającego z błędu w kodzie lub błędnej interpretacji danych przez algorytm.

Szczególny niepokój budzi potencjalne wykorzystanie AI w systemach dowodzenia nuklearnego. Choć mocarstwa zapewniają, że ostateczna decyzja zawsze należy do człowieka, rola systemów wspomagania decyzji rośnie. Zaufanie maszynie w sytuacji ogromnego stresu i presji czasu może okazać się błędem, którego nie będzie jak naprawić. Warto zgłębić temat etycznych zagrożeń sztucznej inteligencji, by zrozumieć, jak cienka jest to granica.

Czy możemy cofnąć czas?

Zegar zagłady nie jest przepowiednią lecz diagnozą. Jego twórcy podkreślają, że wciąż mamy narzędzia, by odwrócić ten trend. Wymaga to jednak globalnej współpracy, która obecnie szwankuje. Regulacje takie jak europejski AI Act to pierwsze kroki w stronę okiełznania cyfrowego żywiołu, ale technologia nie zna granic państwowych. Potrzebujemy międzynarodowych traktatów ograniczających wykorzystanie AI w systemach broni masowego rażenia oraz standardów oznaczania treści generowanych syntetycznie.

Więcej o oficjalnym stanowisku naukowców można przeczytać w dokumencie źródłowym: 2025 Doomsday Clock Statement. To lektura otrzeźwiająca, ale konieczna, by zrozumieć powagę sytuacji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *