Unia Europejska (UE) rozważa wprowadzenie nowych ram prawnych, mających na celu utworzenie regulacji dotyczących rozwoju i stosowania sztucznej inteligencji. Proponowane przepisy, znane jako Akt o Sztucznej Inteligencji (AI Act), koncentrują się przede wszystkim na wzmocnieniu zasad dotyczących jakości danych, przejrzystości, nadzoru ludzkiego i odpowiedzialności. Mają też na celu odpowiedź na pytania etyczne i wyzwania związane z wdrażaniem AI w różnych sektorach, od opieki zdrowotnej i edukacji, po finanse i energetykę.
Dlaczego AI potrzebuje ram prawnych w UE?
„Sztuczna inteligencja istnieje od dekad, ale osiągnęła nowe możliwości dzięki mocy obliczeniowej.” powiedział w oświadczeniu Thierry Breton, unijny komisarz ds. rynku wewnętrznego. Akt o Sztucznej Inteligencji ma na celu „wzmocnienie pozycji Europy jako globalnego centrum w dziedzinie sztucznej inteligencji, zapewnienie, że sztuczna inteligencja w Europie szanuje nasze wartości i zasady, oraz wykorzystanie potencjału sztucznej inteligencji w przemyśle„. Przy obecnym tempie rozwoju AI wydaje się, ze to ostatni dzwonek, by owe założenia przypieczętować prawnie.
Na czym skupia się Akt o Sztucznej Inteligencji?
Podstawą AI Act jest system klasyfikacji, który określa poziom ryzyka, jakie technologia AI może stanowić dla zdrowia, bezpieczeństwa lub podstawowych praw danej osoby (prawa te w UE definiuje Karta Prawa Podstawowych). Ramy prawne obejmują cztery poziomy ryzyka: nieakceptowalne, wysokie, ograniczone i minimalne.
- Systemy AI o ograniczonym i minimalnym ryzyku – takie jak filtry antyspamowe czy gry wideo – mogą być stosowane z niewielkimi wymogami, takimi jak obowiązek przejrzystości.
- Systemy uznane za stwarzające nieakceptowalne ryzyko – jak rządowe systemy punktacji społecznej czy systemy identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej – są zabronione z nielicznymi wyjątkami.
- Systemy AI o wysokim ryzyku – są dozwolone, ale deweloperzy i użytkownicy muszą przestrzegać przepisów, które wymagają rygorystycznych testów, odpowiedniej dokumentacji oraz ścisłego nadzoru ludzkiego. Przykłady AI o wysokim ryzyku to pojazdy autonomiczne, urządzenia medyczne czy maszyny infrastruktury krytycznej.
Jak UE chce egzekwować prawo dotyczące AI?
Akt o Sztucznej Inteligencji proponuje surowe kary za niedostosowanie się do jego przepisów. Dla firm grzywny mogą wynieść nawet do 30 milionów euro lub 6% globalnego przychodu. Przedstawienie fałszywych lub mylących dokumentów organom regulacyjnym może również skutkować grzywnami.
„Dzięki tym przełomowym zasadom, UE toruje drogę do opracowania nowych globalnych norm, abyśmy mogli ufać AI.” powiedziała w swoim oświadczeniu Margrethe Vestager, wiceprzewodnicząca wykonawcza Komisji Europejskiej. „Nasze zasady są odporne na przyszłe wyzwania i przyjazne dla innowacji; będą interweniować tam, gdzie jest to ściśle konieczne: gdy zagrożone są bezpieczeństwo i podstawowe prawa obywateli UE.„
Europejska Rada ds. Sztucznej Inteligencji
Proponowane prawo ma również na celu ustanowienie Europejskiej Rady ds. Sztucznej Inteligencji, która będzie nadzorować wdrażanie regulacji i zapewniać jednolite stosowanie na terenie UE. Organ ten będzie odpowiedzialny za wydawanie opinii i zaleceń w sprawach, które pojawią się wraz z rozwojem sztucznej inteligencji, oraz udzielanie wskazówek władzom krajowym. „Rada powinna odzwierciedlać różne interesy ekosystemu AI i składać się z przedstawicieli państw członkowskich.” czytamy w proponowanym akcie prawnym.
Jak powstaje Akt o Sztucznej Inteligencji?
Akt o Sztucznej Inteligencji został pierwotnie zaproponowany przez Komisję Europejską w kwietniu 2021 roku. Stanowisko ogólne dotyczące ustawodawstwa zostało przyjęte przez Radę Europejską pod koniec 2022 roku, a obecnie omawiane jest w Parlamencie Europejskim.
Po przyjęciu własnego stanowiska w sprawie ustawodawstwa przez Parlament Europejski, rozpoczną się negocjacje międzyinstytucjonalne UE – tzw. trilogi – mające na celu sfinalizowanie i wdrożenie prawa. Czas trwania trilogów może znacznie się różnić, gdyż ustawodawcy negocjują sporne kwestie i wprowadzają poprawki do propozycji. W przypadku skomplikowanych aktów prawnych, takich jak Akt o Sztucznej Inteligencji, procesy te mogą trwać dość długo. Ponadto po uchwaleniu aktu państwa członkowskie otrzymają zapewne odpowiednio długi okres czasu (na przykład dwa lata) na dostosowanie ustawodawstwa krajowego do wymogów nowego prawa UE.
Czy UE uczyni AI etyczną?
Wprowadzenie Aktu o Sztucznej Inteligencji ma na celu stworzenie spójnego i kompleksowego systemu regulacji dotyczącego sztucznej inteligencji w UE. Jego celem jest nie tylko zwiększenie innowacyjności i umożliwienie dalszego rozwoju technologii AI, ale także zapewnienie ochrony podstawowych praw obywateli UE. Wdrożenie tego prawa może stanowić ważny krok w kierunku odpowiedzialnego i etycznego stosowania sztucznej inteligencji na terenie Unii Europejskiej, wpływając na życie milionów ludzi.