Czym są halucynacje w AI?
Halucynacje w AI to sytuacja, w której system generatywny, najczęściej oparty na dużych modelach językowych, tworzy pozornie wiarygodne, lecz faktycznie nieprawdziwe lub nieuzasadnione informacje. Termin angielski „AI hallucination” przyjął się w literaturze badawczej po 2018 r., gdy zespół OpenAI analizował odpowiedzi GPT-2, choć sam problem był obserwowany już w systemach tłumaczeń neuronowych z 2016 r.
Dlaczego zjawisko powstało?
Geneza halucynacji wiąże się z probabilistycznym charakterem modeli językowych. Sieć neuronowa uczy się rozkładu prawdopodobieństwa kolejnych tokenów na podstawie ogromnych korpusów. Brak dostępu do zewnętrznej weryfikacji faktów, niedoszacowanie rzadkich przykładów oraz paradoks nadmiernej pewności skutkują tworzeniem treści, które mieszczą się w statystycznych wzorcach, ale odstają od rzeczywistości.
Jak działa mechanizm halucynacji?
Model, wybierając kolejne słowo, opiera się na rozkładzie prawdopodobieństwa bez zewnętrznego sprawdzania faktów. Wysokie temperatury generowania wzmacniają kreatywność, ale też zwiększają szansę na błędy. Nawet przy niższych temperaturach może dojść do konfabulacji, jeśli kontekst wejściowy jest zbyt krótki lub zawiera luki. Klasyczne systemy eksperckie, oparte na regułach logicznych, nie tworzą nowych faktów, lecz ograniczają się do zaprogramowanej wiedzy, przez co rzadziej wprowadzają użytkownika w błąd, choć są mniej elastyczne.
Zastosowania w praktyce
Problem halucynacji pojawia się w czatbotach obsługujących klientów, narzędziach do automatycznego sporządzania raportów czy systemach wspierających tworzenie kodu. Przykładowo model językowy może wygenerować bibliografię, która wygląda poprawnie, lecz odwołuje się do nieistniejących artykułów. Zjawisko to motywuje rozwój metod takich jak Retrieval-Augmented Generation, w których najpierw pobiera się wiarygodne źródła, a następnie model formułuje odpowiedź, korzystając z dostarczonych dokumentów.
Zalety i ograniczenia
Zaletą modeli podatnych na halucynacje jest zdolność do twórczego wypełniania luk informacyjnych, co bywa użyteczne przy szkicowaniu pomysłów. Ograniczeniem jest konieczność dodatkowej walidacji, ponieważ wiarygodnie brzmiący tekst może zawierać istotne nieścisłości.
Na co uważać?
Użytkownicy powinni zachować krytyczne podejście do wyników, szczególnie w dziedzinach wymagających wysokiej precyzji takich jak medycyna, prawo czy finanse. Integracja warstw fakt-checkingu, kontrola temperatury generowania i systematyczne fine-tuningowanie na zweryfikowanych danych zmniejszają ryzyko halucynacji, lecz go nie eliminują.
Dodatkowe źródła
Więcej informacji można znaleźć w hasłach „Hallucination (artificial intelligence)” na Wikipedia (https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)) oraz w opracowaniu „Reducing Hallucination in Neural Machine Translation” autorstwa Jiayi Wang i współautorów na arXiv (https://arxiv.org/abs/2203.16191). Aktualne studia nad weryfikacją faktów w modelach językowych udostępnia również Anthropic w raporcie z 2023 r. (https://www.anthropic.com/index/2023-hallucination-report).


