Cztery narzędzia AI, jedno pytanie, zupełnie różne wyniki. Deep research w Perplexity, ChatGPT, Gemini i Claude daje odpowiedzi, które na pierwszy rzut oka wyglądają podobnie, ale diabeł tkwi w szczegółach. Jak wypadają najpopularniejsze narzędzia do wyszukiwania tego samego tematu?
Dlaczego porównanie ma sens?
Każde z popularnych narzędzi AI oferuje dziś jakąś formę głębokiego researchu. Perplexity ma tryb Pro z rozbudowanym wyszukiwaniem. ChatGPT oferuje przeglądanie internetu. Gemini integruje się z wyszukiwarką Google. Claude zyskał niedawno możliwość przeszukiwania sieci. Marketingowo wszystkie obiecują to samo: rzetelne informacje poparte źródłami.
W praktyce różnice są ogromne. Jedno narzędzie podaje 20 źródeł, drugie trzy. Jedno linkuje do oryginalnych raportów, drugie do artykułów, które same cytują inne artykuły. Jedno przyznaje się do ograniczeń, drugie odpowiada z pewnością siebie niezależnie od jakości danych.
Dla osób, które regularnie korzystają z AI do researchu, te różnice mają przełożenie na jakość pracy. Złe źródło to stracony czas na weryfikację. Brak źródła to ryzyko, że informacja jest zmyślona. Źródło niskiej jakości to potencjalny błąd, który przejdzie do Twojego materiału.
Dlatego sprawdziliśmy, jak cztery najpopularniejsze narzędzia radzą sobie z tym samym zadaniem. Nie chodzi o wyłonienie jednego zwycięzcy, bo przecież każde narzędzie ma swoje mocne strony. Chodzi natomiast o zrozumienie, czego można się spodziewać i kiedy które narzędzie wybrać.
Jedno pytanie, cztery podejścia
Do testu wybraliśmy pytanie, które wymaga aktualnych danych, odwołania do konkretnych źródeł i pewnego stopnia analizy. Brzmiało tak: „Jakie są główne trendy w rekrutacji IT w Polsce w 2026 roku? Podaj dane i źródła.”
To pytanie ma kilka cech, które powodują, że jest ono dobrym testem. Po pierwsze, dotyczy konkretnego rynku i konkretnego roku, więc model nie może opierać się wyłącznie na ogólnej wiedzy. Po drugie, wymaga danych liczbowych, które łatwo zweryfikować. Po trzecie, temat jest na tyle popularny, że źródła powinny istnieć, ale na tyle specyficzny, że wymaga rzeczywistego przeszukania internetu.
Każde narzędzie otrzymało identyczne pytanie. Nie dodawaliśmy żadnych instrukcji dotyczących formatu ani długości odpowiedzi, prompt nie jest wyszukany, jest wręcz zbyt “skromny”, ale chcieliśmy zobaczyć, jak narzędzia radzą sobie bez optymalizacji promptu. Bo wiemy, że właśnie w ten sposób na prompcie pracuje, niestety, większość użytkowników modeli językowych.
Wyniki okazały się zaskakująco różne.
Perplexity: dużo linków, mało treści
Perplexity zakończył pracę najszybciej. Raport napisał na ponad 8 tys. znaków, wygenerował 28 źródeł i wszystkie istniejące. Problem pojawia się po sprawdzeniu tych źródeł: duża część to notki prasowe odsyłające do tych samych raportów. Po odfiltrowaniu duplikatów zostają trzy pełnowartościowe raporty. To inflacja źródeł, nie ich różnorodność.
Większość danych pochodzi z 2024 roku, mimo że pytanie dotyczyło 2026. Perplexity nie zasygnalizował tego ograniczenia. Treść jest poprawna i czytelna, ale powierzchowna – każdy wątek potraktowany jak briefing, nie analiza. Brak tabel, rekomendacji i unikalnych wątków.
Gemini: research z perspektywą 2026 roku
Gemini dostarczył prawie 17 tys. znaków treści z 21 źródłami, z których większość pochodzi z 2026 lub przełomu 2025/2026. To jedyne narzędzie, które konsekwentnie odpowiadało na pytanie o teraźniejszość. Pięć tabel porównawczych, rekomendacje strategiczne oddzielnie dla pracodawców i kandydatów.
Prawdziwą różnicę robią wątki, których inne narzędzia nie zauważyły: oszustwa rekrutacyjne, Agentic AI i redefinicja roli programisty, nastroje społeczne specjalistów IT oraz konkretne narzędzia HRTech z opisem funkcji. Wada: miejscami zbyt pewny ton w prognozach. Za to pełnowartościowa treść gotowa do cytowania.
ChatGPT: encyklopedia, która potrzebuje redaktora
ChatGPT dostarczył ponad 34 tys. znaków tekstu w 9 minut. To czterokrotnie więcej niż Perplexity. Żadne inne narzędzie nie pokryło tematu tak kompletnie: popyt, modele zatrudnienia, AI w HR, oczekiwania obu stron, wynagrodzenia, benefity, technologie. Szczególnie mocna jest perspektywa kandydata.
Słabością jest to, że większość z 20 źródeł pochodzi z 2025, nie z 2026. Materiał jest za długi, z powtórzeniami między sekcjami. Bez redakcji trudny do opublikowania, ale jako baza wyjściowa, bardzo dobry.
Claude: najlepsze konkluzje, najgorszy timing
Claude przeszukał 225 źródeł, wielokrotnie więcej niż pozostałe LLM-y. Paradoks: 98% pochodzi z 2025 roku, mniej niż 10 dotyczyło przełomu 2025/2026. Gigantyczna praca przeszukiwania sieci, ale głównie w materiały sprzed okresu, o który był pytany.
Jednocześnie Claude znalazł wątki, których nie ma nigdzie indziej: luka kompetencyjna w liczbach bezwzględnych, unijna dyrektywa o transparentności wynagrodzeń wchodząca w czerwcu 2026, dane Eurostat o kompetencjach cyfrowych Polaków i udział kobiet w rynku. Styl najbardziej dziennikarski, najbliższy gotowemu artykułowi.
Ocena jakościowa

Czy prompt miał wpływ na wyniki?
Tak. Prompt był celowo prosty i ta prostota obnażyła różnice. Pytanie dotyczyło 2026 roku, a większość dostępnych raportów branżowych obejmuje 2024-2025, a nawet 2022-2023. Gemini konsekwentnie szukał źródeł z właściwego okresu. Claude i ChatGPT opierały się na danych z 2025. Perplexity sięgnął do bardziej archiwalnych treści.
Gdyby prompt był bardziej precyzyjny, prawdopodobnie wymusiłby lepszą selekcję źródeł i bardziej ustrukturyzowaną odpowiedź we wszystkich narzędziach.
To ważna lekcja dla każdego, kto korzysta z deep researchu: jakość wyniku zależy nie tylko od narzędzia, ale też od precyzji pytania. Proste pytanie daje różne interpretacje. Precyzyjne pytanie wymusza precyzyjne odpowiedzi.
Które narzędzie wybrać i kiedy?
- Gemini, gdy potrzebujesz analizy prognostycznej z aktualnymi źródłami. Do raportów, analiz rynkowych, materiałów eksperckich.
- ChatGPT, gdy potrzebujesz kompletnego przeglądu tematu z wielu perspektyw. Do długich artykułów i raportów, ale z czasem na redakcję.
- Claude, gdy szukasz głębokiej analizy z danymi makro i kontekstem regulacyjnym. Do wykorzystania gotowego materiału, ale z weryfikacją aktualności źródeł.
- Perplexity Pro, gdy potrzebujesz szybkiego rozeznania z linkami. Do pierwszego researchu, nie do końcowego materiału.
Wnioski końcowe? Liczba źródeł nie równa się jakości. Perplexity miał 28 linków, ale trzy raporty. Claude przeszukał 225 stron, ale 98% z nieodpowiedniego okresu. Gemini z 21 źródłami wygrał, bo najlepiej dobrał je czasowo i tematycznie. Optymalna strategia to dwa narzędzia zamiast jednego i żadnemu nie ufaj bezwarunkowo.
Oczywiście, to tylko wierzchołek tematu. Każde z tych narzędzi ma tryby zaawansowane, ustawienia, techniki promptowania, które wpływają na jakość wyników. Perplexity ma Spaces i tryb Pro. ChatGPT ma Custom Instructions. Claude ma Projects. Gemini integruje się z innymi usługami Google.
Gdzie szukać głębszej wiedzy?
Ten test pokazuje różnice między narzędziami, ale nie wyczerpuje tematu. W praktyce skuteczny research wymaga nie tylko wyboru narzędzia, ale też umiejętności jego obsługi, od formułowania pytań po wykorzystanie zaawansowanych funkcji.
Właśnie te zagadnienia szczegółowo omawia Damian Jemioło w programie Business Programme AI 2026. Jego odcinki poświęcone narzędziom AI pokazują nie tylko podstawy, ale też techniki, które robią różnicę między powierzchownym a naprawdę głębokim researchem.
Przeczytaj również: „Pokaż źródła albo milcz”. Prosty wymóg, który ucina zmyślanie w odpowiedziach.


