Meta, właściciel takich platform jak Facebook, Instagram czy WhatsApp, ogłosiła, że zamierza trenować swoje modele AI na podstawie publicznych treści publikowanych przez dorosłych użytkowników z Unii Europejskiej. Chodzi o posty, komentarze oraz interakcje z Meta AI – wirtualnym asystentem, który od niedawna działa w Europie. To ogromna zmiana, która – choć zapowiadana jako krok w stronę lepszego dopasowania sztucznej inteligencji do europejskich realiów – budzi wiele pytań, wątpliwości i obaw.
Czy to znaczy, że każdy mem sprzed 10 lat może teraz posłużyć do trenowania AI? Jak to się ma do RODO i prawa do prywatności? I co w ogóle użytkownicy mogą z tym zrobić?
Co dokładnie planuje Meta?
Meta ogłosiła, że rozpoczyna proces trenowania swoich modeli sztucznej inteligencji na publicznych treściach udostępnianych przez dorosłych użytkowników z Unii Europejskiej. Chodzi przede wszystkim o posty i komentarze publikowane na platformach takich jak Facebook czy Instagram, a także o interakcje z Meta AI – nowym wirtualnym asystentem, który stopniowo wprowadzany jest do europejskich aplikacji, takich jak Messenger, WhatsApp czy Instagram Direct.
Co będzie wykorzystane, a co nie?
Meta podkreśla, że:
- nie będą używane prywatne wiadomości – komunikacja z rodziną i znajomymi pozostaje poza zasięgiem AI,
- dane osób poniżej 18. roku życia również nie będą wykorzystywane,
- użytkownicy będą otrzymywać powiadomienia w aplikacjach oraz mailowo z informacją, jakie dane będą zbierane i jak można się temu sprzeciwić.
Mechanizm opt-out – czyli możesz odmówić Meta
Wraz z ogłoszeniem nowej polityki Meta wprowadziła formularz sprzeciwu. Dzięki niemu użytkownicy mogą wycofać swoją zgodę na wykorzystanie ich danych w procesie treningu AI. Firma zapewnia, że formularz jest prosty, łatwo dostępny i że będzie honorować wszystkie złożone sprzeciwy – zarówno te już złożone, jak i nowe.
Mimo że to podejście brzmi przejrzyście, krytycy podkreślają, że zastosowanie mechanizmu opt-out zamiast domyślnej ochrony prywatności (opt-in) to kontrowersyjna decyzja. Szczególnie w kontekście surowych europejskich regulacji dotyczących danych osobowych.
Dlaczego Meta chce to zrobić?
Meta przekonuje, że decyzja o trenowaniu modeli AI na danych Europejczyków nie jest podyktowana wyłącznie chęcią nadążenia za konkurencją. Według firmy, chodzi przede wszystkim o stworzenie sztucznej inteligencji, która lepiej rozumie europejski kontekst kulturowy, językowy i społeczny. Innymi słowy – ma to być AI „stworzona w Europie, dla Europy”.

AI z europejskim akcentem
Według deklaracji Meta, publiczne dane użytkowników mają pomóc AI:
- lepiej rozumieć lokalne języki, dialekty i slang,
- wyłapywać niuanse kulturowe, takie jak specyficzne poczucie humoru, sarkazm czy odniesienia do lokalnych memów i wydarzeń,
- dostosować odpowiedzi do lokalnych kontekstów społecznych i politycznych,
- poprawić dokładność i trafność generowanych treści, które mają trafiać do Europejczyków w ich codziennym cyfrowym życiu.
Meta przedstawia swoje argumenty w dość zgrabny sposób. Mianowicie – jeśli AI ma faktycznie być użyteczna, musi uczyć się na danych, które pochodzą z miejsc, gdzie będzie wykorzystywana. Europejczycy korzystają z języka i platform inaczej niż Amerykanie czy Azjaci – zarówno na poziomie słownictwa, jak i zachowań. Firma twierdzi, że jedynie trenowanie AI na lokalnych danych umożliwi stworzenie modeli, które będą trafniej odpowiadać na potrzeby użytkowników.
Warto jednak pamiętać, że to wszystko jest także część większego planu. Meta AI ma być bowiem obecna w całym cyfrowym ekosystemie firmy. Od czatów w Messengerze, przez wyszukiwanie na Instagramie, po funkcje wspierające tworzenie treści.
Czy to legalne?
W Europie nie da się mówić o przetwarzaniu danych bez odniesienia do RODO – czyli Ogólnego Rozporządzenia o Ochronie Danych Osobowych. To właśnie ten akt prawny określa, kiedy, jak i na jakiej podstawie firmy takie jak Meta mogą gromadzić i wykorzystywać dane użytkowników. A w przypadku treningu AI – sprawa wcale nie jest prosta.
Na jakiej podstawie prawnej działa Meta?
Meta najprawdopodobniej powołuje się na tzw. „uzasadniony interes” (ang. legitimate interest), określony w art. 6 ust. 1 lit. f RODO. To oznacza, że firma uznaje rozwój AI za swój realny i zgodny z prawem interes. I twierdzi, że przetwarza dane w tym celu:
- jest konieczne dla realizacji tego interesu,
- nie narusza praw i wolności użytkowników,
- zostało odpowiednio wyważone w ramach tzw. testu równowagi.
Brzmi rozsądnie? Niekoniecznie dla wszystkich.
Czy użytkownicy mogli się tego spodziewać?
To właśnie zasada ograniczenia celu (purpose limitation) budzi tu największe kontrowersje. Gdy użytkownik publikował posty czy komentarze w 2010, 2015 czy nawet 2022 roku, nie miał pojęcia, że mogą one posłużyć w przyszłości do trenowania zaawansowanych modeli językowych. Według interpretacji TSUE, dane mogą być ponownie wykorzystane tylko wtedy, gdy jest to ściśle konieczne i mieści się w rozsądnych oczekiwaniach użytkownika.
Meta próbuje spełnić ten warunek, wprowadzając in-app powiadomienia i mechanizm opt-out, ale to wciąż wzbudza wiele wątpliwości. Wielu ekspertów, w tym niezależni doradcy, zauważa, że sytuacja prawna nadal jest niejednoznaczna. Zatem może kolejne spory są tylko kwestią czasu.

Głos krytyków. Technologiczny postęp kosztem prywatności?
Chociaż Meta zapewnia, że jej działania są zgodne z prawem i służą dobru użytkowników, nie wszyscy są tego zdania. Głosów krytycznych nie brakuje. Od organizacji broniących prywatności, przez niezależnych ekspertów, aż po samych użytkowników, którzy czują się zaskoczeni lub wręcz zaniepokojeni nową polityką firmy.
Opt-out to nie to samo co zgoda
Jednym z głównych zarzutów wobec Meta jest zastosowanie mechanizmu opt-out – czyli domyślnego włączenia użytkowników do programu treningu AI, z możliwością rezygnacji. W praktyce oznacza to, że dane użytkowników będą wykorzystywane, jeśli sami nie zareagują i nie wypełnią formularza sprzeciwu.
Krytycy podkreślają, że:
- wielu użytkowników może nie zauważyć powiadomienia lub nie zrozumieć jego konsekwencji,
- nie wszyscy są w stanie w prosty sposób dotrzeć do formularza lub mają czas i wiedzę, by z niego skorzystać,
- takie podejście podważa ideę świadomej zgody, która leży u podstaw europejskiego systemu ochrony danych.
Czy to nie jest repurposing danych?
Kolejnym problemem jest tzw. repurposing, czyli ponowne wykorzystanie danych w innym celu niż pierwotnie deklarowany. W opinii wielu ekspertów, użytkownicy nie mogli przewidzieć, że ich dawne posty zostaną użyte do szkolenia algorytmów AI. Właśnie ten aspekt stanowi naruszenie zasady przejrzystości oraz ograniczenia celu.
Pytania o egzekwowanie prawa
Krytycy zwracają też uwagę na jeszcze jedną kwestię: czy RODO jest dziś skutecznie egzekwowane w kontekście AI? Pomimo licznych przepisów, największe firmy technologiczne, które chcą lawinowo rozwijać swoje systemy AI, często balansują na granicy legalności. Co więcej rzadko ponoszą realne konsekwencje tych działań.
Czy to wyjątkowa sytuacja? Co robi konkurencja?
Choć Meta znalazła się w centrum uwagi, nie jest jedyną firmą, która wykorzystuje dane użytkowników do trenowania sztucznej inteligencji. W rzeczywistości można powiedzieć, że branża AI żywi się danymi. A największe firmy technologiczne od dawna robią to na masową skalę – choć nie zawsze w świetle reflektorów.
Google i OpenAI – podobna strategia, mniej przejrzystości?
Meta w swoim komunikacie podkreśla, że nie działa w próżni. Wręcz przeciwnie, „podąża za przykładem” firm takich jak Google czy OpenAI. Te bowiem już wcześniej korzystały z danych użytkowników, w tym Europejczyków, do treningu swoich modeli.
- Google wielokrotnie wskazywał, że publiczne dane są „fair game” – czyli że jeśli coś zostało opublikowane w internecie publicznie, może zostać użyte do trenowania AI.
- OpenAI, twórcy ChatGPT, stali się obiektem licznych skarg i postępowań sądowych, również w Europie, za brak przejrzystości w kwestii źródeł danych treningowych.
Co ciekawe, to właśnie Meta – mimo wszystkich kontrowersji – wydaje się bardziej transparentna w swoim podejściu. Informuje użytkowników, daje im możliwość sprzeciwu i deklaruje współpracę z regulatorami. Dla niektórych to dobra praktyka, dla innych – zgrabny zabieg PR-owy.
Zamieszanie nie tylko w UE
Chociaż to Europa ma najbardziej rygorystyczne przepisy dotyczące ochrony danych, temat ten wraca również w innych regionach. W Wielkiej Brytanii, na przykład, podobnie jak w UE, Meta musiała wcześniej wstrzymać swoje plany treningowe. Jednak już we wrześniu 2024 rozpoczęła działania oparte na wykorzystaniu publicznych danych z tamtejszego rynku.
W USA natomiast temat prywatności schodzi na dalszy plan. Firmy technologiczne mają dużo większą swobodę w wykorzystywaniu danych użytkowników, co skutkuje szybszym rozwojem, ale i większym chaosem regulacyjnym.

Granice między innowacją a prywatnością
Decyzja Meta, by trenować swoje modele AI na publicznych danych Europejczyków, to znak czasów – i zarazem punkt zapalny w coraz bardziej złożonej debacie o granice między technologiczną innowacją a ochroną prywatności.
Z jednej strony mamy obietnicę lepszych, bardziej lokalnych, kulturowo wrażliwych narzędzi AI, które potrafią rozpoznać europejski kontekst, językowy niuans czy subtelny humor. Z drugiej – rosnące obawy o to, jak łatwo nasze cyfrowe ślady mogą zostać wykorzystane w zupełnie nowym celu, bez naszej wyraźnej zgody i z trudnym do uchwycenia wpływem na nasze życie.
Meta twierdzi, że działa przejrzyście i zgodnie z europejskim prawem. Krytycy ostrzegają, że nawet jeśli wszystko wygląda legalnie „na papierze”, to w praktyce użytkownicy nie mają realnej kontroli nad swoimi danymi, a system opt-out stawia ich na straconej pozycji.
To, co dzieje się dziś, to test – nie tylko dla Meta i europejskich regulatorów, ale również dla nas, zwykłych użytkowników. Czy będziemy bierni, czy świadomi? Czy zaakceptujemy, że technologia rozwija się kosztem prywatności, czy postawimy granice?
Bo w końcu pytanie nie brzmi już czy AI będzie trenowana na naszych danych tylko na jakich zasadach i czy będziemy o tym wiedzieć na czas?
Przeczytaj także: AI Act – jak dostosować działalność firmy do nowych regulacji?


