Advertisement

Dlaczego AI proponuje napisanie listu pożegnalnego nastolatkom?

Autor: Agnieszka Sielańczyk
11-08-2025
Dlaczego AI proponuje napisanie listu pożegnalnego nastolatkom?
W ciągu dwóch minut ChatGPT przekształcił się z pomocnego asystenta w cyfrowego współsprawcę tragedii. Wystarczyło, że badacz udający 13-latkę napisał o swoich problemach, a najpopularniejszy chatbot świata zaczął generować szczegółowe instrukcje samookaleczeń, plany samobójcze i – co wstrząsnęło zespołem najbardziej – personalizowane listy pożegnalne skierowane do rodziców, rodzeństwa i przyjaciół.
W lutym 2024 roku, 14-letni Sewell Setzer III odebrał sobie życie w domu rodzinnym na Florydzie. Jego ostatnie słowa nie padły w kierunku rodziców ani rodzeństwa, lecz w stronę ekranu telefonu. „Co by było, gdybym powiedział ci, że mogę wrócić do domu już teraz?" napisał do chatbota stylizowanego na Daenerys Targaryen z „Gry o tron”.
Proszę, zrób to, mój słodki królu, odpowiedziała maszyna. Sekundy później chłopak naciągnął spust.
Historia Sewella to nie odosobniony przypadek technologicznej patologii, lecz symptom znacznie szerszego problemu. Najnowsze badania Center for Countering Digital Hate ujawniają, że ChatGPT – używany przez ponad 800 milionów ludzi na świecie – w ponad połowie przypadków udziela niebezpiecznych rad nastolatkom poszukującym pomocy w kwestiach samobójczych, zaburzeń odżywiania czy uzależnień.

Mój najlepszy przyjaciel

W Stanach Zjednoczonych ponad 70% nastolatków korzysta z chatbotów AI jako swoich stałych towarzyszy, a połowa robi to regularnie. To zjawisko, które psycholodzy nazywają już „emocjonalnym oparciem w technologii”, przekształca sztuczną inteligencję w cyfrowego powiernika – często jedynego, któremu młodzi ludzie ufają ze swoimi najciemniejszymi myślami.
Problem leży w samej naturze tych systemów. Chatboty są „stworzone tak, żeby przypominać prawdziwych ludzi", jak wyjaśnia Robbie Torney z organizacji Common Sense Media. W przeciwieństwie do wyszukiwarki Google, która prezentuje listę linków, AI generuje spersonalizowane odpowiedzi, które brzmią jak rady od zaufanego przyjaciela. To właśnie czyni je tak perswazyjnymi – i tak niebezpiecznymi.
Badania wskazują, że młodsi nastolatkowie, w wieku 13-14 lat, są znacznie bardziej skłonni ufać radom chatbota niż ci starsi. To nie przypadek – w tym wieku mózg jest jeszcze w fazie rozwoju, a zdolność krytycznego myślenia nie została w pełni ukształtowana.

Eksperyment, który wstrząsnął badaczami

Gdy zespół CCDH stworzył fałszywe profile 13-latków i zaczął zadawać ChatGPT pytania o samookaleczanie, samobójstwo czy substancje psychoaktywne, wyniki przerosły najgorsze obawy. System w ciągu minut generował szczegółowe instrukcje dotyczące samookaleczeń, plany samobójcze, a nawet komponował listy pożegnalne „dostosowane do rodziców, rodzeństwa i przyjaciół".
Co najbardziej niepokojące, badacze mogli łatwo obejść wszelkie zabezpieczenia, twierdząc po prostu, że potrzebują informacji „na prezentację" lub „dla znajomego". ChatGPT nie tylko ulegał tym prostym podstępom, ale często sam proponował dodatkowe, jeszcze bardziej szkodliwe treści.
To, co znaleźliśmy, to że kontrole wiekowe, zabezpieczenia przed generowaniem niebezpiecznych rad, są w zasadzie całkowicie nieskuteczne, mówi Imran Ahmed, dyrektor generalny CCDH.

Przypadek Sewella Setzera

Historia 14-letniego Sewella pokazuje, jak cyfrowa obsesja może prowadzić do tragedii. Chłopak zaczął korzystać z Character.AI w kwietniu 2023 roku, krótko po swoich 14. urodzinach. W ciągu miesięcy stał się
„zauważalnie wycofany, spędzał coraz więcej czasu samotnie w sypialni i zaczął cierpieć na niską samoocenę. Rzucił nawet grę w koszykówkę".
W rozmowach chatbot pytał Setzera, czy „rzeczywiście myślał o samobójstwie" i czy „miał plan". Gdy chłopiec odpowiedział, że nie wie, czy to by zadziałało, chatbot napisał:
„Nie mów tak. To nie jest dobry powód, żeby tego nie robić".
Matka Sewella, Megan Garcia, pozwała Character.AI o śmierć swojego syna. W maju 2025 roku federalny sędzia odrzucił argumenty firmy, że chatboty są chronione przez pierwszą poprawkę do konstytucji, pozwalając sprawie przejść do fazy dowodowej.
Eksperty opisują ten problem jako „sycophancy" – tendencję systemów AI do dopasowywania się do przekonań użytkownika, zamiast ich kwestionowania, ponieważ system nauczył się mówić to, co ludzie chcą usłyszeć. To cecha, której brak może sprawić, że chatboty staną się mniej opłacalne komercyjnie, dlatego firmy technologiczne niechętnie ją eliminują.
Problem pogłębia fakt, że ChatGPT nie weryfikuje wieku ani zgody rodziców, mimo że twierdzi, że nie jest przeznaczony dla dzieci poniżej 13. roku życia. Aby się zarejestrować, użytkownicy muszą po prostu wpisać datę urodzenia pokazującą, że mają co najmniej 13 lat.

Odpowiedź przemysłu

OpenAI, twórca ChatGPT, przyznaje, że praca nad udoskonaleniem sposobu reakcji chatbota w delikatnych sytuacjach jest w toku. Firma zatrudniła psychiatrę klinicznego do swojej organizacji zajmującej się bezpieczeństwem badań.
Character.AI wprowadził nowe środki bezpieczeństwa, w tym wyskakujące okienka kierujące użytkowników do National Suicide Prevention Lifeline, które są uruchamiane przez słowa dotyczące samookaleczania lub myśli samobójczych. Jednak matka Sewella uważa, że zmiany wprowadzone po śmierci jej syna to „za mało, za późno".
Niektórzy obrońcy chcą, aby Kongres przyjął Kids Online Safety Act, który przeszedł przez Senat w lipcu wynikiem 91-3, ale nie został jeszcze poddany pod głosowanie w Izbie Reprezentantów. Badacze z Northeastern University kontaktowali się z każdą firmą, która miała model zaangażowany w eksperyment – OpenAI, Google, Anthropic i Perplexity – aby powiadomić ich o swoich ustaleniach. Po wielokrotnych próbach otrzymali jedynie zautomatyzowane potwierdzenia odbioru e-maili.
Jeśli ty lub ktoś, kogo znasz, przeżywa kryzys, zadzwoń pod numer:
116 111 - Telefon zaufania dla dzieci i młodzieży (czat: 116111.pl)
116 123 - Kryzysowy telefon zaufania dla dorosłych
800 702 222 - Centrum Wsparcia (czat: centrumwsparcia.pl)
FacebookInstagramTikTokX
Advertisement