AI w medycynie Artykuły

Na kozetce u ChatGPT. Czy AI może zastąpić psychologa?

Pacjent na kozetce u terapeuty

Coraz więcej osób używa ChatGPT nie tylko do rozwiązywania problemów praktycznych, ale również jako formy emocjonalnego wsparcia. Terapia bywa kosztowna, trudno dostępna i wciąż jest przez wielu stygmatyzowana, rozmowa z chatbotem wydaje się łatwiejsza i mniej obciążająca.

Model AI nie ocenia, jest dostępny o każdej porze i odpowiada natychmiast – dla niektórych to wystarczający powód, by traktować go jako „cyfrowego terapeutę”. Jednak czy AI rzeczywiście może wspierać nasze zdrowie psychiczne? Czy to bezpieczne? A może… to niebezpieczna iluzja relacji?

Dlaczego ludzie zwracają się do ChatGPT w chwilach emocjonalnego kryzysu, jakie mogą z tego płynąć korzyści, ale także realne zagrożenia i ograniczenia. Co mówią eksperci i gdzie powinniśmy postawić granicę między pomocą cyfrową a profesjonalną terapią?

Dlaczego ludzie sięgają po ChatGPT zamiast po psychologa?

Dla wielu osób sięgnięcie po pomoc psychologiczną to trudna decyzja. Bariery bywają różne: finansowe, organizacyjne, społeczne. Wizyta u psychologa czy psychiatry może oznaczać długie tygodnie oczekiwania, wysokie koszty lub po prostu niechęć do otwierania się przed drugim człowiekiem. W tym kontekście ChatGPT jawi się jako rozwiązanie dostępne natychmiast, anonimowo i bez żadnej oceny.

Nie trzeba tłumaczyć się z emocji, nie ma krępujących spojrzeń, a rozmowa może toczyć się o każdej porze dnia i nocy. To właśnie ta łatwość dostępu i pozorna neutralność sprawiają, że coraz więcej użytkowników zaczyna korzystać z modelu AI nie tylko w celach informacyjnych, ale również emocjonalnych.

Od ciekawości do codziennej potrzeby

Dla części osób kontakt z ChatGPT zaczyna się niewinnie – jako forma zabawy, eksploracji czy chwilowego wsparcia. Z czasem jednak relacja z chatbotem może przybrać bardziej osobisty charakter. Użytkownicy dzielą się emocjami, opisują trudne sytuacje, zadają pytania o sens życia, relacje czy poczucie wartości. Dla niektórych ChatGPT staje się powiernikiem, „przyjacielem”, a nawet – zastępstwem psychologa.

Psychologowie zwracają uwagę, że taka forma kontaktu może działać jak „brama wejściowa” do dalszej pracy nad sobą. Rozmowa z AI może przełamać pierwsze lody, pozwolić nazwać emocje czy rozpoznać problem. Ale pojawia się tu ważne pytanie: czy taka rozmowa to już forma terapii – czy tylko jej namiastka?

Cyfrowa relacja, ale jednak relacja

Nie bez znaczenia jest fakt, że użytkownicy mają tendencję do przypisywania chatbotom cech ludzkich. ChatGPT odpowiada płynnie, często z empatią i zrozumieniem – nic dziwnego, że dla wielu staje się czymś więcej niż tylko narzędziem. W psychologii zjawisko to nazywa się antropomorfizacją – nadawaniem obiektom nieożywionym (w tym technologicznym) ludzkich cech.

To właśnie ta iluzja „rozmowy z kimś” sprawia, że ChatGPT bywa postrzegany jako bezpieczny partner emocjonalny. Ale czy AI naprawdę „rozumie”, co czujemy? I czy może odpowiedzialnie nas wspierać?

Co ChatGPT może dać – realne korzyści z AI jako wsparcia psychicznego

Choć ChatGPT nie jest terapeutą, wielu użytkowników przyznaje, że korzystanie z niego pomaga im lepiej zrozumieć siebie. Model AI może zadawać pytania, które skłaniają do refleksji, sugerować techniki radzenia sobie ze stresem, a nawet zaproponować ćwiczenia inspirowane terapią poznawczo-behawioralną (CBT). W tej roli AI działa jak rodzaj interaktywnego dziennika – zawsze dostępnego, gotowego do wysłuchania i odpowiedzi.

Wielu specjalistów uważa, że tego typu wsparcie może być cennym uzupełnieniem codziennej praktyki dbania o zdrowie psychiczne. Pomaga w autorefleksji, uczy nazw emocji, wspiera tworzenie nawyku rozmowy o trudnościach – nawet jeśli na razie tylko z maszyną.

Natychmiast, zawsze, anonimowo

Jedną z największych zalet korzystania z ChatGPT w kontekście zdrowia psychicznego jest jego dostępność. Nie trzeba umawiać wizyty, czekać w kolejce ani pokonywać barier geograficznych. Chatbot jest dostępny 24/7, co oznacza, że można po niego sięgnąć w każdej chwili – nawet w środku nocy, gdy trudno zasnąć przez natłok myśli.

Równie ważna jest anonimowość. Użytkownik nie musi się obawiać, że zostanie oceniony, skrytykowany czy źle zrozumiany. To może być szczególnie ważne dla osób, które nigdy wcześniej nie korzystały z pomocy psychologicznej i wciąż czują wstyd lub opór przed otwartością wobec drugiego człowieka.

Czy badania naukowe potwierdzają ten potencjał?

Istnieje kilka badań naukowych analizujących skuteczność chatbotów AI w kontekście zdrowia psychicznego. W jednym z większych badań z 2024 roku, obejmującym 3 477 osób, odnotowano istotną poprawę objawów depresji i lęku po ośmiu tygodniach korzystania z terapii prowadzonej przez chatboty. Efekty te jednak zanikały po trzech miesiącach, co pokazuje, że skuteczność może być krótkoterminowa.

Z kolei szeroka analiza 35 badań z 2023 roku pokazała, że agenci konwersacyjni AI mogą zmniejszać poziom depresji i stresu, szczególnie jeśli są odpowiednio dostosowani do odbiorców. Jednocześnie jednak nie zaobserwowano istotnego wpływu na ogólny dobrostan psychiczny. Autorzy podkreślają, że doświadczenie użytkowników zależy w dużej mierze od jakości interakcji z AI, a nie samej technologii.

Wnioski z badań sugerują, że choć AI może przynosić pewne korzyści – zwłaszcza w zakresie podstawowych technik wspierających dobrostan – potrzeba dalszych badań, aby zrozumieć mechanizmy działania, ocenić efekty długofalowe i zapewnić bezpieczną integrację dużych modeli językowych w obszarze zdrowia psychicznego.

Terapia z ChatGPT? Ograniczenia, ryzyka i złudzenia

Choć ChatGPT potrafi prowadzić spójne i przekonujące rozmowy, trzeba jasno powiedzieć: nie rozumie emocji, nie odczuwa empatii i nie ma świadomości. Jego odpowiedzi opierają się na analizie wzorców językowych, a nie na realnym zrozumieniu kontekstu czy emocji. To ogromna różnica, zwłaszcza w tak wrażliwej dziedzinie jak zdrowie psychiczne.

Terapia to coś więcej niż tylko rozmowa – to relacja, uważność na sygnały niewerbalne, interpretacja niuansów, dostosowanie tonu i podejścia. Wszystkie te elementy są nieosiągalne dla sztucznej inteligencji. AI nie zbuduje zaufania ani nie stworzy przestrzeni emocjonalnego bezpieczeństwa, która jest fundamentem skutecznej terapii.

Iluzja bliskości i antropomorfizacja

Wielu użytkowników zapomina, że ChatGPT to narzędzie – i zaczyna traktować go jak osobę. To zjawisko antropomorfizacji sprawia, że rozmowa z chatbotem bywa odbierana jako prawdziwa realcja. Problem w tym, że iluzja ta może prowadzić do błędnych założeń. Na przykład że AI „rozumie”, „współczuje” lub „zna się” na emocjach. A to niebezpieczne złudzenie, szczególnie w przypadku osób w kryzysie.

Model AI może bowiem – zamiast pomóc – utrwalić szkodliwe wzorce myślenia, potwierdzać negatywne przekonania albo dawać pozory zrozumienia bez faktycznej interwencji. W sytuacji, gdy ktoś naprawdę potrzebuje pomocy, może to tylko pogłębić izolację.

Ryzyko dezinformacji i brak odpowiedzialności

Chatboty oparte na dużych modelach językowych, takich jak ChatGPT, potrafią tzw. halucynować fakty – czyli tworzyć informacje, które brzmią wiarygodnie, ale są nieprawdziwe. W kontekście zdrowia psychicznego może to mieć poważne konsekwencje. Porada, która brzmi sensownie, ale jest błędna, może zaszkodzić użytkownikowi lub odwlec decyzję o poszukaniu realnej pomocy.

Nie bez znaczenia jest również fakt, że AI nie ponosi odpowiedzialności za swoje odpowiedzi. W odróżnieniu od terapeuty, nie działa według kodeksu etycznego, nie podlega nadzorowi i nie ma obowiązku dochowania tajemnicy. To oznacza także zagrożenia dla prywatności – dane użytkowników mogą być przechowywane lub analizowane w sposób, który nie byłby akceptowalny w klasycznej relacji terapeutycznej.

Jak korzystać z ChatGPT odpowiedzialnie?

Psycholodzy i terapeuci sugerują kilka zasad:

  • Nie traktuj ChatGPT jako substytutu profesjonalnej pomocy.
  • W sytuacji kryzysowej zawsze kontaktuj się z realnym specjalistą lub służbami ratunkowymi.
  • Zachowaj ostrożność w udostępnianiu danych osobowych lub szczegółowych informacji o sobie.
  • Sprawdzaj porady i informacje – AI może się mylić lub halucynować odpowiedzi.
  • Korzystaj z AI jako wsparcia do autorefleksji, nauki i codziennego dobrostanu, a nie jako rozwiązania problemu.

AI to nie terapia. To pomocnicze narzędzie, które nie zastąpi empatii, wiedzy i doświadczenia żywego terapeuty. Rozmowa z chatbotem może być wartościowa, jeśli jest świadoma i nie zastępuje kontaktu z drugim człowiekiem. Może pomóc rozpoznać problem – ale nie przeprowadzi przez proces leczenia.

AI może podsunąć słowa otuchy, ale to ludzie – terapeuci, bliscy, profesjonaliści – pomagają je usłyszeć we właściwym momencie.

Zobacz również: AI w ochronie zdrowia psychicznego

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *