Aktualności

OpenAI przeciwdziała używaniu swoich modeli w propagandzie

Obraz przedstawia zbliżenie na ekran komputera, na którym wyświetlana jest wiadomość ostrzegawcza dotycząca dezinformacji i propagandy

OpenAI podjęło zdecydowane działania przeciwko nieetycznemu wykorzystaniu swoich modeli AI, które były wykorzystywane w kampaniach dezinformacyjnych. Organizacje z Rosji, Chin, Iranu i Izraela używały modeli OpenAI do generowania i modyfikowania tekstów w celu wpływania na międzynarodową opinię publiczną. Modele te były używane do tworzenia nieautentycznych komentarzy w mediach społecznościowych oraz do generowania treści na stronach internetowych.

Jakie były przykłady nadużyć?

  1. Rosja: Dwie rosyjskie organizacje używały modeli OpenAI do generowania prorosyjskich i antyukraińskich komentarzy, które były rozpowszechniane głównie na platformach takich jak Telegram. Jeden z tych podmiotów, wcześniej nieznany badaczom, produkował dużą ilość treści w językach rosyjskim i angielskim, często z charakterystycznymi błędami gramatycznymi i frazami typu „As an AI model…”.
  2. Chiny: Grupa o nazwie „Spamouflage” wykorzystywała technologie OpenAI do generowania komentarzy wspierających rząd chiński oraz debugowania kodu na stronie internetowej, która krytykowała przeciwników rządu. Grupa ta była już wcześniej znana badaczom dezinformacji.
  3. Iran: Organizacja „International Union of Virtual Media” (IUVM) używała modeli OpenAI do generowania artykułów i nagłówków w językach angielskim i francuskim, które miały na celu promowanie propagandy wspierającej rząd Iranu.
  4. Izrael: Firma STOIC, zajmująca się prowadzeniem kampanii politycznych w mediach społecznościowych, używała modeli AI do tworzenia artykułów i komentarzy, które były zarówno prorządowe, jak i krytyczne wobec różnych partii politycznych. Firma ta tworzyła również fikcyjne profile na platformach społecznościowych z użyciem wygenerowanych obrazów i biogramów.

Reakcja OpenAI

W odpowiedzi na te nadużycia, OpenAI zablokowało dostęp do swoich usług dla kont powiązanych z tymi operacjami dezinformacyjnymi. Firma podjęła kroki mające na celu lepsze monitorowanie i identyfikowanie nieetycznych działań, aby zapobiegać przyszłym przypadkom wykorzystywania swoich modeli w podobny sposób.

Dlaczego to jest ważne?

Wzrost wykorzystania generatywnych technologii AI do tworzenia dezinformacji jest niepokojącym trendem, który ma potencjał do znacznego wpływu na globalne społeczeństwo i politykę. W miarę jak AI staje się coraz bardziej zaawansowana i dostępna, jej potencjał do szerzenia dezinformacji rośnie, co stanowi wyzwanie dla zaufania publicznego i stabilności demokratycznych procesów.

OpenAI aktywnie stara się przeciwdziałać tym zagrożeniom, ale skuteczność tych działań w dużej mierze zależy od zdolności do monitorowania i szybkiego reagowania na nadużycia, co wymaga stałej współpracy z badaczami dezinformacji i platformami internetowymi.

Więcej informacji na ten temat można znaleźć w artykule na stronie DeepLearning.AI.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *