Aktualności

Zakazane systemy AI w Polsce. Opracowanie AI Act przez NASK

zakazana AI

Sztuczna inteligencja jeszcze niedawno była tematem futurystycznych rozważań, a dziś realnie wpływa na decyzje w firmach, urzędach i codziennym życiu obywateli. Właśnie dlatego Unia Europejska przyjęła pierwsze kompleksowe przepisy regulujące tę technologię – tzw. Akt o sztucznej inteligencji (AI Act), czyli Rozporządzenie 2024/1689.

AI Act to pionierska inicjatywa mająca na celu pogodzenie rozwoju innowacyjnych technologii z ochroną praw człowieka, bezpieczeństwa i demokracji. Regulacja nie tylko wprowadza definicję systemu AI, ale także dzieli zastosowania AI na kilka kategorii ryzyka – od „niskiego” po „niedopuszczalne”.

Czym różni się AI Act od innych regulacji?

Dotychczasowe prawo europejskie, jak RODO, skupiało się na ochronie danych osobowych, ale nie regulowało samych mechanizmów decyzyjnych sztucznej inteligencji. AI Act idzie o krok dalej – definiuje, jakie konkretne praktyki w użyciu AI są zabronione, wskazuje systemy „wysokiego ryzyka” i stawia wymogi przejrzystości tam, gdzie AI może wpływać na nasze wybory.

W Polsce za krajowe opracowanie i wdrażanie wytycznych odpowiada m.in. NASK – Państwowy Instytut Badawczy. To właśnie NASK, we współpracy z Ministerstwem Cyfryzacji, przygotował kompleksowe opracowanie wytycznych Komisji Europejskiej, które mają pomóc w rozumieniu i stosowaniu AI Act.

W kolejnych częściach przyjrzymy się bliżej najważniejszemu – jakie systemy AI są teraz wprost zakazane na mocy europejskiego prawa i co to oznacza w praktyce dla Polski.

Zakazane systemy AI według AI Act – Co Jest Zabronione?

Osiem praktyk AI, które nie mają prawa działać w UE

Zgodnie z artykułem 5 AI Act, niektóre zastosowania sztucznej inteligencji są uznane za zbyt ryzykowne dla praw człowieka, demokracji i bezpieczeństwa, by mogły być w ogóle dopuszczone do użycia w Unii Europejskiej – niezależnie od tego, czy są skuteczne lub innowacyjne.

Komisja Europejska wskazuje osiem kategorii systemów AI, które są całkowicie zakazane. Obejmują one:

  1. Manipulację zachowaniem – np. AI stosująca podprogowe techniki do zmiany decyzji konsumentów.
  2. Wykorzystywanie słabości – np. AI kierowana do dzieci lub osób starszych, by wpływać na ich decyzje.
  3. Scoring społeczny – np. klasyfikacja obywateli według ich zachowania, statusu majątkowego, wyznania itp.
  4. Prognozowanie przestępczości – ocena ryzyka popełnienia przestępstwa wyłącznie na podstawie cech osobistych.
  5. Masowe pozyskiwanie wizerunków z internetu lub CCTV – tworzenie baz danych biometrycznych bez zgody.
  6. Analiza emocji w pracy i szkole – systemy rozpoznające emocje uczniów czy pracowników.
  7. Kategoryzacja biometryczna według cech wrażliwych – np. religii, poglądów, orientacji seksualnej.
  8. Zdalna identyfikacja biometryczna w czasie rzeczywistym – np. monitoring twarzy na ulicach przez policję (z wyjątkiem bardzo konkretnych przypadków).

Kiedy AI staje się zakazana?

Żeby uznać system AI za „zakazany”, nie wystarczy sam fakt działania technologii. Muszą być spełnione ściśle określone warunki – np. dowód, że dane AI:

  • działa wbrew autonomii użytkownika,
  • wywołuje szkodę (fizyczną, psychiczną, ekonomiczną),
  • prowadzi do niesprawiedliwego traktowania lub masowej inwigilacji.

Zakazane są nie tylko praktyki zamierzone – jeśli AI samodzielnie generuje szkodliwe efekty, to i tak można je uznać za niedopuszczalne. Co ważne, niektóre z tych technik są zakazane nawet bez zamiaru szkodzenia, jeśli ich działanie wykracza poza granice etyczne i prawne.

Przykład: kiedy chatbot łamie prawo?

System terapeutyczny, który próbuje przekonać użytkownika do rzucenia palenia, używając ukrytych komunikatów, może być uznany za manipulacyjny – zwłaszcza jeśli osoba, do której jest skierowany, należy do grupy szczególnie wrażliwej. Nawet dobre intencje nie wystarczą, jeśli sposób działania systemu narusza autonomię człowieka.

Jakie systemy AI są zakazane w Polsce? Interpretacja i wdrożenie przez NASK

AI Act to nie wszystko – liczy się interpretacja

Choć AI Act jest rozporządzeniem unijnym, jego stosowanie w praktyce wymaga interpretacji. W Polsce zadania te realizuje NASK – Państwowy Instytut Badawczy, który przygotował szczegółowe opracowanie wytycznych Komisji Europejskiej. Dokument ten jest kluczowy, ponieważ przekłada ogólne przepisy prawa na praktyczne przykłady i scenariusze.

NASK nie tylko analizuje przepisy, ale także podpowiada, jak rozpoznać, że dany system AI może łamać zakazane praktyki. Pomaga to urzędnikom, firmom i programistom ocenić, czy konkretne zastosowanie technologii mieści się w granicach prawa – zanim zostanie ono wdrożone.

Zakazane w Polsce? Zależy od kontekstu

Nie istnieje „czarna lista” nazw konkretnych systemów zakazanych w Polsce – zakaz dotyczy praktyk i funkcji, nie nazw marek czy produktów. To oznacza, że nawet popularne narzędzia AI mogą być niedopuszczalne w określonych zastosowaniach.

Przykłady z interpretacji NASK:

  • System AI analizujący emocje uczniów podczas nauki zdalnej – zakazany (art. 5 ust. 1 lit. f), ponieważ dotyczy emocji, biometrii i edukacji.
  • Algorytm klasyfikujący osoby korzystające z pomocy społecznej na podstawie narodowości – zakazany jako forma scoringu społecznego (art. 5 ust. 1 lit. c).
  • AI używana przez policję do automatycznego rozpoznawania twarzy na monitoringu miejskim w czasie rzeczywistym – co do zasady zakazana, chyba że zachodzą wyjątki przewidziane prawem (art. 5 ust. 1 lit. h).

Ważna jest również intencja i efekt – jeśli system wpływa na decyzje użytkownika w sposób manipulacyjny, wykorzystuje jego słabości lub prowadzi do szkody, to może podpaść pod zakaz nawet bez wyraźnego zamiaru szkodzenia.

Polska ścieżka wdrażania

Choć zakazy weszły w życie już 2 lutego 2025 roku, pełne egzekwowanie – w tym nakładanie kar – zacznie się dopiero 2 sierpnia 2025 roku. Do tego czasu Polska, podobnie jak inne państwa członkowskie, ma czas na:

  • dostosowanie procedur i przepisów krajowych,
  • przeszkolenie urzędników i sądów,
  • przygotowanie instytucji nadzorczych.

To również moment dla firm i instytucji publicznych, by przyjrzeć się własnym systemom AI i – jeśli trzeba – zatrzymać ich rozwój lub zmienić zastosowanie.

Granice i wyjątki – Co (jednak) można?

Zakaz zakazowi nierówny

Choć lista zakazanych praktyk AI w AI Act wygląda na bardzo restrykcyjną, rozporządzenie przewiduje szereg wyjątków i doprecyzowań, które pozwalają legalnie stosować niektóre kontrowersyjne technologie – pod warunkiem spełnienia konkretnych warunków.

To właśnie w tych wyjątkach kryją się realne granice prawne. Zrozumienie, co można, a czego nie można, wymaga uwzględnienia zarówno celu działania systemu, jak i jego kontekstu – np. kto go stosuje, na jakiej podstawie prawnej, i w jakim celu.

Kiedy zakazane praktyki mogą być dozwolone?

Poniżej kilka przykładów sytuacji, które – choć z pozoru przypominają zakazane praktyki – nie podlegają zakazowi AI Act:

✅ Uzasadnione zastosowania w medycynie lub bezpieczeństwie

  • System analizujący emocje pracowników w celu wykrycia wypalenia zawodowego – może być dopuszczalny, jeśli służy ochronie zdrowia, działa z ich świadomą zgodą i jest odpowiednio zabezpieczony.
  • Rozpoznawanie twarzy w szpitalach w celu identyfikacji pacjentów – możliwe, o ile nie opiera się na masowym nieukierunkowanym zbieraniu danych.

✅ Użycie w sytuacjach skrajnych

  • Zdalna identyfikacja biometryczna przez policję w przestrzeni publicznej – zakazana co do zasady, ale dopuszczalna w wyjątkowych przypadkach, takich jak:
    • poszukiwanie ofiar porwań,
    • przeciwdziałanie atakom terrorystycznym,
    • lokalizacja sprawców poważnych przestępstw (np. zabójstw).

W takich przypadkach wymagane są wcześniejsze zgody sądowe lub administracyjne, ograniczenia czasowe i ścisły nadzór.

✅ Legalna analiza danych – ale nie profilowanie osób

  • AI może analizować dane o ruchu ulicznym, lokalizacji przestępstw czy nawet dane z mediów społecznościowych, jeśli nie służą one do oceny lub klasyfikacji konkretnych osób.

Przekonywanie vs. manipulacja

AI Act nie zakazuje przekonywania, czyli przedstawiania informacji lub rekomendacji, które użytkownik może świadomie ocenić. Zakazane jest wprowadzanie w błąd lub manipulowanie decyzjami tak, by użytkownik nie był świadomy wpływu systemu.

Przykład: chatbot zdrowotny, który informuje o korzyściach rzucenia palenia – legalny.
Chatbot, który stosuje podprogowe komunikaty, by nakłonić osobę do zakupu terapii bez jej wiedzy – zakazany.

Przyszłość AI W Świetle Europejskiego Prawa

Czas transformacji – dla rynku, administracji i obywateli

AI Act to najambitniejsze jak dotąd podejście regulacyjne do sztucznej inteligencji na świecie. Dla Polski oznacza to nie tylko konieczność dostosowania się do unijnych przepisów, ale również szansę na wyznaczenie standardów etycznych w rozwoju technologii.

Firmy, instytucje publiczne, szkoły, szpitale czy urzędy – wszystkie podmioty, które już dziś korzystają z AI lub zamierzają to robić – muszą przeanalizować swoje systemy pod kątem:

  • klasy ryzyka (niskie, wysokie, zakazane),
  • sposobu zbierania i przetwarzania danych,
  • wpływu na użytkowników i ich prawa.

Dzięki wytycznym NASK i rosnącemu wsparciu instytucjonalnemu, Polska ma szansę nie tylko wdrożyć AI Act, ale też aktywnie kształtować praktykę jego stosowania w UE.

Innowacja a etyka – da się to pogodzić

Jednym z wyzwań, które już teraz podnoszą twórcy AI i firmy technologiczne, jest pytanie: czy AI Act zahamuje innowacje? To obawa częściowo uzasadniona – niektóre projekty będą musiały zostać ograniczone lub całkowicie zmienione.

Jednak AI Act nie zabrania tworzenia zaawansowanych systemów – zabrania jedynie ich nieetycznego wykorzystania. To nie jest koniec rozwoju AI, ale początek ery odpowiedzialności. Systemy o wysokim ryzyku nadal będą mogły być rozwijane – ale pod warunkiem spełnienia surowych wymogów przejrzystości, nadzoru i audytu.

Co jeszcze przed nami?

  • Sierpień 2025 – pełne wejście w życie przepisów dotyczących egzekwowania i kar.
  • Powstanie krajowych organów nadzorczych, które będą oceniały zgodność systemów AI z prawem.
  • Rozwój certyfikacji i znaków zaufania dla systemów AI.
  • Rosnąca świadomość obywateli, którzy będą mogli dochodzić swoich praw w przypadku nadużyć.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *