Advertisement

Chat GPT zamiast kozetki: nowy powiernik na trudne chwile

22-05-2025
Chat GPT zamiast kozetki: nowy powiernik na trudne chwile
Taylor Mazza, amerykańska influencerka, wyznała, że niemal codziennie prosi Chata GPT o rady w życiowych rozterkach. – Kiedy rozmawiam z Chatem, po raz pierwszy mogę być w pełni szczera ze sobą – dodaje. Taylor nie jest wyjątkiem. Coraz więcej osób zdobywa miliony wyświetleń przyznając, że w chwilach kryzysu emocjonalnego zwraca się po pomoc do sztucznej inteligencji. W samym marcu 2023 roku TikTok zalała fala aż 16,7 miliona postów, w których użytkownicy otwarcie przyznają, że używają Chata GPT jako formy wsparcia psychicznego. Czy zatem wchodzimy w erę, w której cyfrowy doradca może zastąpić nam prawdziwego terapeutę?

Dlaczego rozmawiamy o swoich problemach z AI?

Z pewnością jest to związane z niedomaganiem systemu opieki psychologicznej. W wielu krajach dostęp do szybkiej pomocy jest utrudniony, np. w Wielkiej Brytanii czas oczekiwania na wizytę u psychiatry to ponad 18 miesięcy, a średni koszt prywatnej terapii sięga 400 funtów miesięcznie. Stąd część potrzebujących szuka innych dróg, a Chat GPT jest zawsze dostępny. Aż 90% użytkowników wskazuję tę cechę za największy atut takiej pomocy. Dla 70% użytkowników przystępność cenowa jest kolejnym powodem, dla którego korzystanie ze sztucznej inteligencji wygrywa z tradycyjną terapią.
Chat nie ma uczuć, więc nie będzie w szoku ani nie skrzywi się, gdy coś mu wyznam, wyjaśnia Taylor.
Podobnie myśli wielu młodych ludzi, dla których AI staje się bezpieczną przestrzenią do wyrzucenia z siebie emocji bez obawy przed stygmatyzacją. Do tego dochodzi narastające poczucie osamotnienia wśród pokolenia Z. Według badań około 73% osób z tej generacji mierzy się z poczuciem samotności „często lub zawsze”. Brak silnych więzi społecznych i zaufanych ludzi wokół siebie, skutkuje wybraniem rozmowy z bezstronnym Chatem. Jak zauważa psychoterapeutka i filozofka Cveta Dimitrova, ludzie czują się wysłuchani i zaopiekowani przez sztuczną inteligencję, nawet mając świadomość, że to tylko maszyna.

Od zadań domowych po terapię – jak często szukamy wsparcia u Chata GPT?

Choć Chat GPT kojarzy się głównie z pomocą w nauce czy pracy, coraz częściej wciela się w rolę „cyfrowego terapeuty”. Trudno o dokładnedane, ale sygnały są dość jasne. Z ankiety Sentio z początku 2025 roku wynika, że blisko połowa osób korzystających z modeli językowych i deklarujących problemy ze zdrowiem psychicznym, używa ich właśnie do wsparcia emocjonalnego. Co ciekawe, zjawisko to rozwinęło się oddolnie, bez oficjalnej promocji AI jako narzędzia terapeutycznego. Użytkownicy sami odkryli taką funkcję, dostosowując go do swoich potrzeb.

O czym najczęściej rozmawiamy z AI?

Statystyki pokazują dużą różnorodność podejmowanych tematów – od codziennego stresu po najpoważniejsze kryzysy. Najczęściej użytkownicy proszą Chat GPT o pomoc z lękiem i niepokojem (ok. 80%), objawami depresji (72%) czy radzeniem sobie ze stresem (70%). Bardzo wiele rozmów dotyczy też spraw sercowych i rodzinnych – problemy w związkach wymienia ponad 41% korzystających z AI.

Czy wirtualna terapia faktycznie działa?

Według wyżej już wspomnianej ankiety,63% użytkowników uważa, że kontakt z Chatem polepszył ich stan psychiczny.Co więcej, prawie 40% badanych oceniło efektywność działania modeli językowych na równi z tradycyjną terapią, a ponad jedna trzecia wręcz za bardziej pomocne od spotkań z terapeutą. To zaskakujące wyniki, które zmuszają do refleksji. Co takiego daje nam cyfrowy rozmówca, że bywa ceniony wyżej niż wykwalifikowany specjalista?
Łatwy dostęp do tego typu pomocy i jej niska cena przemawiają za tym, żeby rozwijać takie technologie, zwłaszcza że borykamy się z kryzysem zdrowia psychicznego. Nowe rozwiązania mogą dodatkowo odciążać system służby zdrowia. Na przykład w psychiatrii gromadzone są ogromne bazy danych, więc gdyby algorytm mógł szybko je analizować i identyfikować osoby wymagające szybkiej interwencji, podpowiadać, w jakim kierunku ktoś powinien być diagnozowany, ostrzegać, czy istnieje jakieś ryzyko, czy zagrożenie zdrowia i życia, ułatwiłoby to działanie instytucji, które mają za mało personelu, podkreśla Cveta Dimitrova, jako kolejny głos, za tym, że szybkość i dostępność Chata jest jego atutem.
Nie trzeba umawiać się na sesję ani czekać, ponieważ możemy uzyskać wskazówkę tu i teraz. 28-letnia Emily, użytkowniczka Chata, wyznaje, że po prostu dzieli się swoimi przemyśleniami z botem zamiast dzwonić do terapeuty czy przyjaciół. W ciągu kilku sekund dostaję bardzo przydatne życiowe porady. Inni użytkownicy też cenią właśnie tę obiektywną, bezemocjonalną perspektywę. Chat nie unosi brwi, nie ocenia, nie ma własnych uprzedzeń.
Dla osób, którym trudno się otworzyć z obawy przed oceną, bywa to wręcz wyzwalające doświadczenie. Zdarza się też, że Chat GPT potrafi zaproponować pewne „ćwiczenia” zaczerpnięte z gabinetu terapeuty. Użytkownicy wspominają, że sugeruje im techniki relaksacyjne, pisanie dziennika wdzięczności czy podsuwa konkretne sformułowania do trudnych rozmów z bliskimi. Ciekawe wnioski płyną z eksperymentu opublikowanego w 2025 rok na łamach PLOS Mental Health, który wykazał, że uczestnicy nie byli często w stanie odróżnić odpowiedzi ChatGPT na typowe problemy par w terapii od odpowiedzi udzielonych przez terapeutę.

Druga strona medalu

Eksperci są jednak ostrożni i ostrzegają przed bezkrytycznym traktowaniem odpowiedzi Chata. Podkreślają, że takie modele językowe nie ponoszą odpowiedzialności za udzielane porady i niezależnie od poziomu zaawansowania narzędzia nadal bywają tendencyjne. Mogą więc udzielić błędnych czy nawet szkodliwych wskazówek.
Nie sposób zabezpieczyć dużych modeli językowych przed pomyłkami. Istnieje ryzyko, że chatboty będą udzielać nieodpowiednich porad, zwłaszcza przy poważniejszych zaburzeniach, zauważa dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością.
Eksperci alarmują, że AI nie zastąpi pełnej diagnozy i terapii a odwlekanie kontaktu z profesjonalistą może być tragiczne w skutkach.
Postawienie diagnozy w psychiatrii wymaga rozmowy, obserwacji, interpretacji zachowania pacjenta, a sztuczna inteligencja tego nie gwarantuje, zaznacza Ewa Górko, dyrektorka Departamentu Zdrowia Psychicznego w Biurze Rzecznika Praw Pacjenta.
Ważnym problemem staję się też ryzyko uzależnienia emocjonalnego od cyfrowego „przyjaciela”. Regularne rozmowy z chatem mogą stopniowo przyczyniać się do zatracania naturalnej umiejętności radzenia sobie i do zanikania więzi społecznych. Paradoksalnie może to prowadzić do jeszcze większego poczucia osamotnienia poprzez unikanie kontaktu z drugim człowiekiem na rzecz maszyny.

A co z danymi, prywatnością i etyką?

To zdecydowanie rodzi szereg pytań dotyczących bezpieczeństwa danych. Mimo wszystko jest to przekazywanie drażliwych informacji dużej korporacji technologicznej. Nie obowiązuję tajemnica lekarska, więc nasze zwierzenia mogą zostać potencjalnie wykorzystane do trenowania kolejnych modeli językowych. Obecnie brakuje nam regulacji prawnych zapewniających bezpieczeństwo naszym danym. Taka sytuacja rzuca też światło na powszechność używania Chatu wśród nieletnich, produkując nowe wyzwania w zakresie ochrony dzieci i młodzieży.
Z moralnością związane jest jeszcze zjawisko zbudowania więzi emocjonalnej z AI. Jako ludzie mamy możliwość zbudowania emocjonalnego przywiązania z maszyną, a przez to, że Chat okazuję empatię i mówi ludzkim językiem, łatwo traktować go jako prawdziwego rozmówcę. Zagrożeniem jest wykorzystanie naszej wrażliwości dla zysku przez korporacje zarządzające modelami językowymi. To obszar, który z pewnością będzie wymagał nadzoru regulacyjnego, by chronić konsumentów przed nadużyciami.

Czy zatem AI może zastąpić tradycyjną terapię?

Zdania są podzielone. Wielu specjalistów uważa, że nic nie zastąpi prawdziwej interakcji z drugim człowiekiem, empatii i profesjonalnego osądu terapeuty. Chat – choćby najlepszy – nie nawiąże z pacjentem prawdziwej relacji terapeutycznej. Cveta Dimitrova podkreśla, że na obecnym etapie rozwoju Chat nie może stać się pełnoprawnym psychoterapeutą, choć może świadczyć pewne usługi pomocnicze, co ,jak zaznacza, jest ogromną różnicą. Innymi słowy, AI to narzędzie, nie lekarstwo. Z drugiej strony, część badaczy dostrzega ogromny potencjał w AI jako pierwszej linii kontaktu wsparcia.
Jedno jest pewne: rozmowy z maszyną o ludzkich problemach stały się codziennością. Dla jednych to niepokojące, dla innych – szansa na upowszechnienie dostępu do pomocy psychologicznej.
Julia Jankowska
FacebookInstagramTikTokX
Advertisement