W ostatnim czasie, świat mediów społecznościowych został zszokowany. Wszystko przez skandal związany ze stworzonymi przez sztuczną inteligencję (AI) pornograficznymi zdjęciami Taylor Swift. Wydarzenie to stało się przerażającym przykładem szkodliwego potencjału AI. Co więcej po raz kolejny pokazało jak można wykorzystać technologię do tworzenia fałszywych treści (deepfake) o głęboko negatywnym charakterze.
Bulwersujące zdjęcia Taylor Swift na X
Zdjęcia, na których Taylor Swift została przedstawiona w seksualnych pozach, krążyły (bez jej udziału i zgody) głównie po serwisie X. Choć zostały one szybko usunięte, zdążyły zyskać miliony wyświetleń. Warto także podkreślić fakt, że w internecie nic nie ginie i materiały te będą wciąż krążyć w mniej moderowanych serwisach.
USA i problem deepfake
Ten incydent stał się sygnałem alarmowym dla opinii publicznej, zwłaszcza w kontekście rozpoczynającego się roku wyborów prezydenckich w USA. Rosnące obawy dotyczą dezinformacji oraz obrazów i filmów stworzonych przez sztuczną inteligencję, które mogą być nieodróżnialne od prawdziwych. Zresztą jeszcze niedawno Amerykanie żyli historią o tym, jak wygenerowany przez AI głos Bidena zniechęcał do udziału w głosowaniu.
Czy social media mają skuteczne oręże do walki z deepfake?
Ben Decker z firmy Memetica, cyfrowej agencji dochodzeniowej, wypowiedział się na temat szkodliwego wykorzystania AI. Podkreślał, że media społecznościowe nie mają skutecznych planów monitorowania treści. Zwłaszcza w sytuacji, gdy narzędzia AI, służące do tworzenia potencjalnie szkodliwych treści, szybko zyskują na popularności.
Problem ten jest widoczny w przypadku serwisów społecznościowych, takich jak X (d. Twitter) czy Meta (Facebook, Instagram). Redukują bowiem one swoje zespoły moderatorów, polegając coraz bardziej na zautomatyzowanych systemach i doniesieniach użytkowników. Takie podejście prowadzi do sytuacji, w których kontrowersyjne i potencjalnie szkodliwe treści pozostają niewykryte.
Problem deepfake w kontekście nadużyć pornograficznych
Technologia deepfake, która umożliwia tworzenie fałszywych obrazów, jest już od dłuższego czasu znana i wykorzystywana w różnych celach, w tym w tzw. revenge porn (pornozemście). Mimo że w coraz większej liczbie państw obowiązują przepisy pozwalające ścigać takie przestępstwa, egzekwowanie prawa w praktyce napotyka na liczne trudności.
Przypadek fałszywych zdjęć Taylor Swift ujawnia szerszy problem związany z deepfake i AI. Wskazuje na konieczność opracowania skuteczniejszych metod monitorowania i moderowania treści w mediach społecznościowych oraz na potrzebę edukacji społecznej w zakresie rozpoznawania fałszywych treści. Jednocześnie podkreśla znaczenie odpowiednich regulacji prawnych, które będą w stanie nadążyć za szybkim rozwojem technologii cyfrowych.
W świetle tych wydarzeń, coraz bardziej widoczne staje się, że rozwój technologiczny musi iść w parze z odpowiedzialnością i etyką, aby zapobiec nadużyciom i chronić prawo jednostek do prywatności i prawdziwego wizerunku.