W połowie stycznia 2026 roku użytkownicy wyszukiwarki Google mogli zauważyć istotną zmianę. Gigant z Mountain View zdecydował się na cichy, ale znaczący krok w tył w kwestii integracji sztucznej inteligencji z wynikami wyszukiwania dotyczącymi zdrowia. Medyczne porady od Trybu AI w Google (znane jako AI Overviews) przestały pojawiać się przy zapytaniach o konkretne jednostki chorobowe, takie jak „kamienie nerkowe” czy „zapalenie płuc”. Decyzja ta jest dowodem na to, że bezpieczeństwo pacjentów wciąż wygrywa z technologicznym pędem.
Koniec z Doktorem AI w wyszukiwarce?
Jeszcze do niedawna wpisanie w Google objawów chorobowych skutkowało wygenerowaniem przez sztuczną inteligencję zwięzłego podsumowania, które miało zaoszczędzić nam przeklikiwania się przez dziesiątki stron. System ten, oparty na modelach językowych Gemini, miał działać jak błyskawiczny asystent. Rzeczywistość zweryfikowała jednak te założenia. Jak donosi serwis TechCrunch, Google usunęło te automatyczne podsumowania dla szerokiej gamy zapytań medycznych.
Dlaczego podjęto taką decyzję? Wyobraźmy sobie sytuację, w której student medycyny, który przeczytał wszystkie podręczniki, ale nigdy nie widział pacjenta, próbuje postawić diagnozę na podstawie jednego zdania. Tak właśnie działały czasami algorytmy: posiadały ogromną wiedzę teoretyczną, ale brakowało im klinicznego kontekstu i „instynktu”, który posiada doświadczony lekarz. Wycofanie tej funkcji to przyznanie, że w kwestiach życia i zdrowia nie ma miejsca na błędy statystyczne.
Halucynacje AI – dlaczego algorytm to nie lekarz
Głównym problemem, z którym borykają się duże modele językowe, są tzw. halucynacje. To zjawisko polegające na tym, że sztuczna inteligencja generuje odpowiedź, która brzmi niezwykle przekonująco i profesjonalnie, ale jest całkowicie zmyślona lub merytorycznie błędna. W przypadku przepisu na ciasto, błąd skutkuje zakalcem. W przypadku porady medycznej – skutki mogą być tragiczne.
To nie pierwszy raz, gdy technologia potyka się o medycynę. Już kiedyś analizowaliśmy przypadki sukcesów i porażek AI w diagnostyce zdrowotnej, które pokazują, jak cienka jest granica między wsparciem a wprowadzeniem w błąd. Google, zdając sobie sprawę z odpowiedzialności prawnej i etycznej, woli dmuchać na zimne. Zamiast ryzykownej syntezy danych, użytkownicy znów widzą tradycyjne linki do renomowanych źródeł medycznych, takich jak strony rządowe czy portale dużych klinik.
Bezpieczeństwo pacjentów ważniejsze niż innowacja
Ruch Google wpisuje się w szerszy trend ostrożności. Choć generatywna AI w służbie zdrowia ma ogromny potencjał – od analizy obrazów rentgenowskich po projektowanie nowych leków – to rola bezpośredniego doradcy dla laika okazuje się na ten moment zbyt ryzykowna. Modele językowe nie potrafią wziąć odpowiedzialności za swoje słowa.
Co zamiast AI Overviews? Powrót do źródeł
Dla przeciętnego użytkownika zmiana ta oznacza powrót do starego, sprawdzonego sposobu wyszukiwania informacji o zdrowiu. Zamiast gotowej recepty na ekranie, musimy ponownie weryfikować informacje u źródła. To dobra wiadomość dla rzetelnych portali medycznych i… dla naszego zdrowia. Algorytmy świetnie radzą sobie z segregowaniem danych, ale interpretacja objawów wciąż pozostaje domeną ludzi.
Sztuczna inteligencja wciąż ma swoje miejsce w medycynie, na przykład w ochronie zdrowia psychicznego, gdzie chatboty mogą pełnić funkcję wstępnego wsparcia lub narzędzia do monitorowania nastroju. Jednak w przypadku ostrych stanów chorobowych Doktor Google w wersji AI musi jeszcze wrócić na studia.


