Chatboty AI mają wbudowaną awersję do ciszy. Wolą wygenerować cokolwiek niż zostawić puste miejsce. Można to zmienić jedną linijką w prompcie, ale większość użytkowników nawet nie wie, że taka opcja istnieje. Jak brzmi ta instrukcja i dlaczego robi taką różnicę?
Dlaczego chatbot nigdy nie mówi „nie wiem”?
Duże modele językowe zaprojektowano tak, żeby odpowiadały. Zawsze. Na wszystko. Ich zadaniem jest generować tekst, który brzmi sensownie i spójnie niezależnie od tego, czy mają wystarczające dane, żeby odpowiedzieć rzetelnie.
To architektura LLM-ów. Model przewiduje, jakie słowo powinno nastąpić po poprzednim, i robi to tak długo, aż uzna odpowiedź za kompletną. Nie ma w tym procesie etapu weryfikacji ani momentu, w którym system sprawdza: „Czy ja właściwie to wiem?”.
Efekt jest taki, że chatbot potraktuje pytanie o stolicę Francji i pytanie o wyniki finansowe niszowej spółki z 2019 roku dokładnie tak samo, tzn. wygeneruje odpowiedź. W pierwszym przypadku będzie prawidłowa, w drugim może być całkowicie zmyślona. Ty nie zobaczysz różnicy w tonie ani w strukturze tekstu. Obie odpowiedzi będą brzmieć równie pewnie.
Co się zmienia, gdy zażądasz źródeł?
Dodanie do promptu wymogu podania źródeł zmienia dynamikę rozmowy z chatbotem. Model nadal generuje tekst, ale teraz musi go powiązać z konkretnymi odniesieniami. To utrudnia mu „płynne” zmyślanie.
Prosty przykład. Zamiast pytać: „Jakie są najczęstsze przyczyny rotacji pracowników?”, dodajesz: „Podaj źródła dla każdego twierdzenia. Jeśli nie możesz wskazać źródła – zaznacz to wyraźnie.”
Ta instrukcja nie eliminuje halucynacji całkowicie, ale robi dwie rzeczy. Po pierwsze, wymusza na modelu strukturę, którą łatwiej zweryfikować. Po drugie, ujawnia luki, jeśli chatbot nie potrafi podać źródła, masz sygnał ostrzegawczy. Oczywiście, model może też wymyślić źródło, dlatego zawsze warto je sprawdzić. Ale to już prostsza robota niż weryfikowanie każdego zdania z osobna.
Jak brzmi prompt, który działa?
Nie ma jednej magicznej formuły, ale pewne elementy powtarzają się w skutecznych promptach. Możesz użyć ich jako szablonu i dostosować do swoich potrzeb.
Element pierwszy: jawne pozwolenie na niewiedzę. „Jeśli nie masz pewnych danych – napisz: nie wiem” albo „Nie zgaduj. Jeśli nie znasz odpowiedzi, powiedz to wprost.” Brzmi banalnie, ale modele reagują na takie instrukcje. Domyślnie zakładają, że mają odpowiedzieć za wszelką cenę. Musisz im wyraźnie powiedzieć, że cisza jest dozwolona.
Element drugi: wymóg źródeł przy faktach. „Każde twierdzenie faktograficzne opatrz źródłem” albo „Wskaż, skąd pochodzą dane, które podajesz.” To podnosi poprzeczkę i sprawia, że odpowiedzi łatwiej poddać weryfikacji.
Element trzeci: oddzielenie pewników od przypuszczeń. „Jeśli coś jest twoją interpretacją lub przypuszczeniem, zaznacz to wyraźnie.” Model zaczyna wtedy rozróżniać poziomy pewności, co pomaga Ci ocenić wiarygodność poszczególnych fragmentów.
Przykładowy prompt:
Odpowiadasz krótko, konkretnie i w stronie czynnej.
Zasady:
- Nie zgaduj. Jeśli nie wiesz, napisz: „nie wiem” i czego brakuje.
- Każdą liczbę, datę lub „badania mówią” podeprzyj źródłem (link albo nazwa raportu + rok).
- Oddziel fakty od wniosków: oznacz “Fakt”: i “Wniosek”:
Temat: [wklej temat / pytanie]Kontekst firmy: [branża, kraj, skala, cel]Ograniczenia: [czas / budżet / zasoby]
Odpowiedzi:
- Co rekomendujesz i po co:
- 3 fakty (ze źródłami):
- 2 wnioski (Twoja interpretacja):
- Ryzyko / czego nie wiem, o czym Cię nie poinformowałem, a powinienem:
Gdzie ta technika sprawdza się najlepiej?
Wymuszanie źródeł nie ma sensu przy każdym prompcie. Jeśli prosisz chatbota o burzę mózgów, kreatywne pomysły albo luźną rozmowę, dodatkowe wymagania tylko spowalniają tworzenie odpowiedzi i ograniczają swobodę odpowiedzi.
Ale przy zadaniach wymagających precyzji ta technika robi ogromną różnicę. Analiza danych, research rynkowy, przegląd literatury, weryfikacja informacji, przygotowanie materiałów do prezentacji – wszędzie tam, gdzie fakty mają znaczenie, warto podnieść poprzeczkę.
Szczególnie pomocne okazuje się to przy pracy z tematami, w których sam nie jesteś ekspertem. Wtedy trudniej wychwycić błąd intuicyjnie, ale łatwo sprawdzić, czy podane źródło w ogóle istnieje i czy mówi to, co twierdzi chatbot. Wystarczy kliknąć w link lub wpisać tytuł publikacji w wyszukiwarkę, to zajmuje kilkanaście sekund, a potrafi oszczędzić godzin prostowania błędów.
Warto też pamiętać, że technika ta działa najlepiej w połączeniu z innymi nawykami. Samo wymuszenie źródeł nie zastąpi krytycznego myślenia ani znajomości tematu. To raczej dodatkowa warstwa zabezpieczeń niż rozwiązanie wszystkich problemów z wiarygodnością AI.
Od czego zacząć?
Jedna linijka w prompcie to początek, nie koniec drogi. Technika wymuszania źródeł to fragment szerszego zestawu umiejętności, które decydują o tym, czy AI jest dla Ciebie użytecznym narzędziem czy generatorem pozornie sensownych odpowiedzi.
Jak konstruować prompty, żeby minimalizować ryzyko błędów? Jak walidować odpowiedzi, gdy nie masz czasu sprawdzać każdego detalu? Jak pracować z AI przy zadaniach, gdzie stawka jest wysoka? Te zagadnienia szczegółowo omawia Damian Jemioło w programie Business Programme AI 2026.
Przeczytaj również:







