Czyli o kwestiach etycznych i prawnych dotyczących odpowiedzialności za teksty generowane przez duże modele językowe (LLM).
Badacze z Uniwersytetu Oksfordzkiego we współpracy z międzynarodowymi ekspertami opublikowali nowe badanie w Nature Machine Intelligence, poruszające skomplikowane kwestie etyczne dotyczące odpowiedzialności za wyniki generowane przez duże modele językowe. Badanie pokazuje, że LLM, takie jak ChatGPT, stawiają przed nami istotne pytania dotyczące przypisywania zasług i praw autorskich do wygenerowanych tekstów. Autorzy odbiegają jednak od tradycyjnych debat na temat odpowiedzialności w AI, które koncentrowały się głównie na szkodliwych konsekwencjach.
Odpowiedzialność za duże modele językowe (LLM)
„LLM, takie jak ChatGPT, stwarzają pilną potrzebę aktualizacji naszego pojęcia odpowiedzialności,” akcentują autorzy badania. Kluczowa teza badań sprowadza sie do tego, iż choć ludzie używający tych technologii nie mogą w pełni przypisywać sobie zasług za pozytywne wyniki generowane przez LLM, nadal wydaje się właściwe pociąganie ich do odpowiedzialności za ich nieodpowiedzialne (szkodliwe) zastosowania, takie jak generowanie dezinformacji lub niedbałe sprawdzanie wiarygodności wygenerowanych tekstów.
Luka osiągnięć
W efekcie powstaje sytuacja, którą autorzy, opierając się na wcześniejszych pracach, nazwali „luką osiągnięć”. Polega ona na tym, że wykonywana jest użyteczna praca, ale ludzie nie czerpią z niej ani takiego zadowolenia, ani nie są za nią tak samo doceniani jak kiedyś. Jeden z autorów postuluje, iż niezbędne są prawne wytyczne dotyczące kwestii przypisywania autorstwa, wymogów ujawniania udziału AI w procesie tworzenia tekstu oraz ograniczenia dotyczące wykorzystania AI w procesie edukacji.
Szybka potrzeba reagowania
Edukacja i publikacje naukowe wymagają szczególnie szybkiego działania w kwestii wytycznych dotyczących wykorzystania LLM i odpowiedzialności. „Zalecamy, aby zgłoszenia artykułów naukowych zawierały oświadczenie o użyciu LLM, wraz z odpowiednimi informacjami uzupełniającymi,” mówią współautorzy badania. „Ujawnienie dla LLM powinno być podobne jak w przypadku współautorów ludzkich” i uznawać „znaczący wkład” AI w tworzenie danego artykułu.
Wpływ na edukację i prawa autorskie
Autorzy zwracają uwagę, że LLM mogą być pomocne w edukacji, ale ostrzegają, że są one podatne na błędy, a nadużywanie ich może wpłynąć na brak rozwoju umiejętności krytycznego myślenia. Instytucje związane z edukacją, jak piszą autorzy, powinny rozważyć dostosowanie stylów oceny, przemyślenie metodyki nauczania i zaktualizowanie wytycznych dotyczących niewłaściwego postępowania akademickiego, aby efektywnie radzić sobie z wykorzystaniem tych modeli.
Ważnym obszarem, w którym konieczne jest szybkie określenie implikacji wynikających z wykorzystania LLM, są prawa do wygenerowanych tekstów, takie jak prawa własności intelektualnej. „Prawa własności intelektualnej stawiają przed nami wyzwania, ponieważ opierają się na pojęciach pracy i kreatywności ustanowionych z myślą o ludziach. Musimy opracować lub dostosować ramy takie jak 'współtworzenie’, aby radzić sobie z tą szybko rozwijającą się technologią, jednocześnie chroniąc prawa twórców i użytkowników.”, zauważają autorzy badania.
Zagrożenia związane z LLM
Nie wszystkie przewidywalne zastosowania LLM należą do nieszkodliwych czy neutralnych z punktu widzenia odpowiedzialności (m.in. karnej). Badacze wyraźnie podkreślają, iż modele mogą być wykorzystywane do generowania szkodliwych treści, w tym dezinformacji i dezinformacji na dużą skalę. „Dlatego musimy pociągać ludzi do odpowiedzialności za nienależytą staranność przy sprawdzaniu wiarygodności tekstu generowanego przez LLM.”
W celu rozwiązania tych i innych zagrożeń związanych z LLM, badacze sugerują, że ich twórcy mogą wzorować się na samoregulacji w dziedzinach takich jak biomedycyna. „Budowanie zaufania jest kluczowe dla dalszego rozwoju LLM. Poprzez promowanie przejrzystości i angażowanie się w otwarte dyskusje, twórcy modeli mogą wykazać swoje zaangażowanie w odpowiedzialne i etyczne praktyki.”
1 Komentarz