OpenAI podjęło zdecydowane działania przeciwko nieetycznemu wykorzystaniu swoich modeli AI, które były wykorzystywane w kampaniach dezinformacyjnych. Organizacje z Rosji, Chin, Iranu i Izraela używały modeli OpenAI do generowania i modyfikowania tekstów w celu wpływania na międzynarodową opinię publiczną. Modele te były używane do tworzenia nieautentycznych komentarzy w mediach społecznościowych oraz do generowania treści na stronach internetowych.
Jakie były przykłady nadużyć?
- Rosja: Dwie rosyjskie organizacje używały modeli OpenAI do generowania prorosyjskich i antyukraińskich komentarzy, które były rozpowszechniane głównie na platformach takich jak Telegram. Jeden z tych podmiotów, wcześniej nieznany badaczom, produkował dużą ilość treści w językach rosyjskim i angielskim, często z charakterystycznymi błędami gramatycznymi i frazami typu „As an AI model…”.
- Chiny: Grupa o nazwie „Spamouflage” wykorzystywała technologie OpenAI do generowania komentarzy wspierających rząd chiński oraz debugowania kodu na stronie internetowej, która krytykowała przeciwników rządu. Grupa ta była już wcześniej znana badaczom dezinformacji.
- Iran: Organizacja „International Union of Virtual Media” (IUVM) używała modeli OpenAI do generowania artykułów i nagłówków w językach angielskim i francuskim, które miały na celu promowanie propagandy wspierającej rząd Iranu.
- Izrael: Firma STOIC, zajmująca się prowadzeniem kampanii politycznych w mediach społecznościowych, używała modeli AI do tworzenia artykułów i komentarzy, które były zarówno prorządowe, jak i krytyczne wobec różnych partii politycznych. Firma ta tworzyła również fikcyjne profile na platformach społecznościowych z użyciem wygenerowanych obrazów i biogramów.
Reakcja OpenAI
W odpowiedzi na te nadużycia, OpenAI zablokowało dostęp do swoich usług dla kont powiązanych z tymi operacjami dezinformacyjnymi. Firma podjęła kroki mające na celu lepsze monitorowanie i identyfikowanie nieetycznych działań, aby zapobiegać przyszłym przypadkom wykorzystywania swoich modeli w podobny sposób.
Dlaczego to jest ważne?
Wzrost wykorzystania generatywnych technologii AI do tworzenia dezinformacji jest niepokojącym trendem, który ma potencjał do znacznego wpływu na globalne społeczeństwo i politykę. W miarę jak AI staje się coraz bardziej zaawansowana i dostępna, jej potencjał do szerzenia dezinformacji rośnie, co stanowi wyzwanie dla zaufania publicznego i stabilności demokratycznych procesów.
OpenAI aktywnie stara się przeciwdziałać tym zagrożeniom, ale skuteczność tych działań w dużej mierze zależy od zdolności do monitorowania i szybkiego reagowania na nadużycia, co wymaga stałej współpracy z badaczami dezinformacji i platformami internetowymi.
Więcej informacji na ten temat można znaleźć w artykule na stronie DeepLearning.AI.