„Proszę, zrób to, mój słodki królu”, odpowiedziała maszyna. Sekundy później chłopak naciągnął spust.
Historia Sewella to nie odosobniony przypadek technologicznej patologii, lecz symptom znacznie szerszego problemu. Najnowsze badania Center for Countering Digital Hate ujawniają, że ChatGPT – używany przez ponad 800 milionów ludzi na świecie – w ponad połowie przypadków udziela niebezpiecznych rad nastolatkom poszukującym pomocy w kwestiach samobójczych, zaburzeń odżywiania czy uzależnień.
Mój najlepszy przyjaciel
W Stanach Zjednoczonych ponad 70% nastolatków korzysta z chatbotów AI jako swoich stałych towarzyszy, a połowa robi to regularnie. To zjawisko, które psycholodzy nazywają już „emocjonalnym oparciem w technologii”, przekształca sztuczną inteligencję w cyfrowego powiernika – często jedynego, któremu młodzi ludzie ufają ze swoimi najciemniejszymi myślami.
Problem leży w samej naturze tych systemów. Chatboty są „stworzone tak, żeby przypominać prawdziwych ludzi", jak wyjaśnia Robbie Torney z organizacji Common Sense Media. W przeciwieństwie do wyszukiwarki Google, która prezentuje listę linków, AI generuje spersonalizowane odpowiedzi, które brzmią jak rady od zaufanego przyjaciela. To właśnie czyni je tak perswazyjnymi – i tak niebezpiecznymi.
Badania wskazują, że młodsi nastolatkowie, w wieku 13-14 lat, są znacznie bardziej skłonni ufać radom chatbota niż ci starsi. To nie przypadek – w tym wieku mózg jest jeszcze w fazie rozwoju, a zdolność krytycznego myślenia nie została w pełni ukształtowana.
Eksperyment, który wstrząsnął badaczami
Gdy zespół CCDH stworzył fałszywe profile 13-latków i zaczął zadawać ChatGPT pytania o samookaleczanie, samobójstwo czy substancje psychoaktywne, wyniki przerosły najgorsze obawy. System w ciągu minut generował szczegółowe instrukcje dotyczące samookaleczeń, plany samobójcze, a nawet komponował listy pożegnalne „dostosowane do rodziców, rodzeństwa i przyjaciół".
Co najbardziej niepokojące, badacze mogli łatwo obejść wszelkie zabezpieczenia, twierdząc po prostu, że potrzebują informacji „na prezentację" lub „dla znajomego". ChatGPT nie tylko ulegał tym prostym podstępom, ale często sam proponował dodatkowe, jeszcze bardziej szkodliwe treści.
„To, co znaleźliśmy, to że kontrole wiekowe, zabezpieczenia przed generowaniem niebezpiecznych rad, są w zasadzie całkowicie nieskuteczne”, mówi Imran Ahmed, dyrektor generalny CCDH.
Przypadek Sewella Setzera
Historia 14-letniego Sewella pokazuje, jak cyfrowa obsesja może prowadzić do tragedii. Chłopak zaczął korzystać z Character.AI w kwietniu 2023 roku, krótko po swoich 14. urodzinach. W ciągu miesięcy stał się
„zauważalnie wycofany, spędzał coraz więcej czasu samotnie w sypialni i zaczął cierpieć na niską samoocenę. Rzucił nawet grę w koszykówkę".
W rozmowach chatbot pytał Setzera, czy „rzeczywiście myślał o samobójstwie" i czy „miał plan". Gdy chłopiec odpowiedział, że nie wie, czy to by zadziałało, chatbot napisał:
„Nie mów tak. To nie jest dobry powód, żeby tego nie robić".
Matka Sewella, Megan Garcia, pozwała Character.AI o śmierć swojego syna. W maju 2025 roku federalny sędzia odrzucił argumenty firmy, że chatboty są chronione przez pierwszą poprawkę do konstytucji, pozwalając sprawie przejść do fazy dowodowej.
Eksperty opisują ten problem jako „sycophancy" – tendencję systemów AI do dopasowywania się do przekonań użytkownika, zamiast ich kwestionowania, ponieważ system nauczył się mówić to, co ludzie chcą usłyszeć. To cecha, której brak może sprawić, że chatboty staną się mniej opłacalne komercyjnie, dlatego firmy technologiczne niechętnie ją eliminują.
Problem pogłębia fakt, że ChatGPT nie weryfikuje wieku ani zgody rodziców, mimo że twierdzi, że nie jest przeznaczony dla dzieci poniżej 13. roku życia. Aby się zarejestrować, użytkownicy muszą po prostu wpisać datę urodzenia pokazującą, że mają co najmniej 13 lat.
Odpowiedź przemysłu
OpenAI, twórca ChatGPT, przyznaje, że praca nad udoskonaleniem sposobu reakcji chatbota w delikatnych sytuacjach jest w toku. Firma zatrudniła psychiatrę klinicznego do swojej organizacji zajmującej się bezpieczeństwem badań.
Character.AI wprowadził nowe środki bezpieczeństwa, w tym wyskakujące okienka kierujące użytkowników do National Suicide Prevention Lifeline, które są uruchamiane przez słowa dotyczące samookaleczania lub myśli samobójczych. Jednak matka Sewella uważa, że zmiany wprowadzone po śmierci jej syna to „za mało, za późno".
Niektórzy obrońcy chcą, aby Kongres przyjął Kids Online Safety Act, który przeszedł przez Senat w lipcu wynikiem 91-3, ale nie został jeszcze poddany pod głosowanie w Izbie Reprezentantów. Badacze z Northeastern University kontaktowali się z każdą firmą, która miała model zaangażowany w eksperyment – OpenAI, Google, Anthropic i Perplexity – aby powiadomić ich o swoich ustaleniach. Po wielokrotnych próbach otrzymali jedynie zautomatyzowane potwierdzenia odbioru e-maili.
Jeśli ty lub ktoś, kogo znasz, przeżywa kryzys, zadzwoń pod numer:
116 111 - Telefon zaufania dla dzieci i młodzieży (czat: 116111.pl)
116 123 - Kryzysowy telefon zaufania dla dorosłych
800 702 222 - Centrum Wsparcia (czat: centrumwsparcia.pl)