Czym jest Halucynacja (hallucination)?
Halucynacja w kontekście sztucznej inteligencji opisuje sytuację, w której model generatywny – najczęściej sieć neuronowa dużej skali – tworzy treści zgodne gramatycznie i stylowo, jednak niepoparte danymi ani faktyczną wiedzą. Zjawisko dotyczy przede wszystkim systemów NLP, choć istnieje także w modelach generujących obrazy czy dźwięk. Termin zapisano w literaturze już w 2018 r. w pracach zespołów z Johns Hopkins University, a spopularyzowano po publikacji raportu Google Research z 2020 r., gdzie opisano „nonsensowne, lecz przekonujące odpowiedzi” modeli językowych.
Jak dokładnie działa Halucynacja (hallucination)
Źródłem halucynacji jest probabilistyczny charakter predykcji. Podczas generowania kolejnych tokenów model wybiera najbardziej prawdopodobne ciągi na podstawie rozkładu statystycznego utworzonego z danych treningowych. Gdy w zbiorze brakuje precyzyjnej informacji lub pytanie użytkownika przekracza zakres wiedzy modelu, sieć wypełnia luki, opierając się na skojarzeniach, co skutkuje błędnymi szczegółami, fikcyjnymi cytatami albo nieistniejącymi odniesieniami. W przeciwieństwie do systemów regułowych, które zwracają błąd, niepewność modelu generatywnego nie jest bezpośrednio widoczna dla użytkownika.
Kontekst historyczny
W badaniach nad translacją maszynową halucynacje opisali w 2019 r. Koehn i Knowles, analizując przypadki wytwarzania zdań niezwiązanych z tekstem źródłowym. W 2022 r. zespół Google Brain zaproponował metrykę „MMR” do kwantyfikacji skali halucynacji w dialogowych LLM, a OpenAI udostępniło system ocen oparty o wyszukiwanie wewnętrzne, co zainicjowało konkurencyjne prace nad pomiarami.
Zastosowania w praktyce
Paradoksalnie, kontrolowana halucynacja bywa użyteczna. W kreatywnym pisaniu model może celowo wytwarzać fikcyjne opisy, a przy syntezie obrazów twórcza halucynacja prowadzi do generowania abstrakcyjnych scen, które nie istnieją w rzeczywistości. W medycynie czy finansach zjawisko stanowi jednak zagrożenie, gdyż fałszywa informacja może wprowadzić w błąd lekarza lub analityka.
Zalety i ograniczenia
Elastyczność modeli generatywnych ułatwia tworzenie tekstów naturalnych, lecz jednocześnie zwiększa ryzyko błędów semantycznych. W porównaniu z klasycznymi bazami wiedzy o stałej strukturze, LLM oferuje swobodę językową, ale brak mu twardej weryfikacji faktów. Zaawansowane strategie, takie jak Retrieval-Augmented Generation (RAG), wprowadzają warstwę wyszukiwania i porównawczo redukują liczbę halucynacji nawet o 60 %, choć kosztem większego zużycia zasobów obliczeniowych.
Na co uważać?
Największe ryzyko pojawia się, gdy model udziela odpowiedzi w obszarach wymagających precyzji: prawo, zdrowie, nauki ścisłe. Należy wówczas stosować weryfikację źródeł, zapewniać dostęp do aktualnych danych oraz sygnalizować użytkownikowi możliwość błędu. Firmy implementujące LLM w produktach konsumenckich coraz częściej stosują monitorowanie produkcyjne, aktywne uczenie na temat fałszywych twierdzeń i polityki odrzucania promptów, które generują niepewne wyniki.
Dodatkowe źródła
Więcej szczegółów można znaleźć w artykule przeglądowym Hallucinations in Natural Language Generation, a także w haśle Wikipedia – Hallucination (artificial intelligence). Metryki oceny opisano w pracy zespołu Google Brain Measuring Faithfulness in LLM.


