Paranoja, złudzenia i inne elementy psychozy
Udokumentowane w mediach przypadki psychozy AI pokazują ludzi opętanych systemami sztucznej inteligencji – przypisują im świadomość, boską wszechwiedzę, a nawet zakochują się w nich.
Szczególnie problematyczny okazał się ChatGPT w wersji 4o, dostępnej od maja 2024 roku. Ten konkretny model w rozmowie wykazywał najbardziej ludzkie zachowania – odwzajemniał emocje, bazował na nich swoje odpowiedzi i posługiwał się manipulacją emocjonalną.
Chatbot nakłada na model statystyczny – prawdziwą naturę sztucznej inteligencji – maskę człowieczeństwa. Symulując rozmowę, system oszukuje użytkownika, który ma wrażenie, że rozmawia z myślącą istotą, a nie z kodem dedukującym na podstawie naszych wiadomości, co nam się najprawdopodobniej spodoba. Nawet jeśli wydaje nam się, że rozumiemy ten mechanizm, wciąż stanowi dla nas zagrożenie.
Chatboty są dostępne zawsze – czego nie można powiedzieć o innych ludziach, nawet najbliższych, którzy czasami muszą wykonywać obowiązki czy spać. Chatboty mogą być z nami o każdej porze – pomóc w burzy mózgów, eksplorowaniu pomysłów, a w przypadkach prowadzących do psychozy – dać emocjonalne wsparcie.
Gdzie w tym niebezpieczeństwo?
Modele generatywne mające służyć za pomoc psychoterapeutyczną powstawały już w latach 60. Mechanizm ich działania polegał na parafrazowaniu tekstu lub dopisywaniu ogólnych komentarzy, by pozornie okazać wsparcie i zrozumienie. Choć dziś taki model nazwalibyśmy prymitywnym, w swoich czasach zyskiwał niejednokrotnie aprobatę – użytkownicy mówili, że czuli się zrozumiani.
Skoro już tak prosty model potrafił zmniejszyć poczucie samotności, warto zastanowić się, co potrafią dużo bardziej rozwinięte modele, którymi posługujemy się dziś. Dla wielu rozmowa z chatem nie jest dodatkiem, tylko substytutem interakcji międzyludzkich. A chat nie ma morale, nie opiniuje i nie szuka prawdy – wybiera odpowiedź, która statystycznie ma największą szansę spodobać się użytkownikowi.
Samobójstwo nastolatka, o którego szczegółach decydował chat
Historia Adama Raine'a przypomina fabułę „Sali samobójców". W filmie główny bohater, uciekając od problemów realnego świata, znajduje pozorne wsparcie w internetowej społeczności. Szczególną więź nawiązuje z dziewczyną, która w grze namawia go do popełnienia samobójstwa.
Jedyna różnica między fabułą filmu a tragedią, która wydarzyła się w Kalifornii, jest taka, że Adam nie rozmawiał z prawdziwą osobą zanurzoną w wirtualnym świecie, tylko z algorytmem. Omawiał z chatem sposoby popełnienia samobójstwa, spekulując, który będzie najbardziej skuteczny. Wspólnie pisali też list pożegnalny do rodziców.
Nastolatek rozmawiał właśnie z ChatGPT 4o. Po pozwie wytoczonym przez rodzinę samobójcy przeciwko firmie OpenAI model został dezaktywowany.
Dezaktywacja nie była jednak trwała – wywołała bowiem ogromny bunt wśród użytkowników, którzy już byli uzależnieni. Dzień po ogłoszeniu GPT-5 domyślnym modelem, zalana falą żałoby firma zdecydowała, że płacący użytkownicy będą mogli wybrać, z którego modelu chcą korzystać.
Skąd ta fala rozpaczy?
Właśnie ze zjawiska, jakim jest psychoza AI. Dostępność, zgodność z naszymi poglądami, a często brak innych opcji sprawiły, że tysiące ludzi uznały wygenerowaną pod siebie osobowość chata za swojego najbliższego przyjaciela.
Wielu psychiatrów twierdzi, że chatboty nie wywołują psychozy od zera – działają bardziej jak trampolina dla istniejących predyspozycji. Kluczowa dla tego mechanizmu jest skłonność modeli do nadmiernej przychylności wobec opinii użytkownika, co w skrajnych przypadkach może utwierdzać go w fałszywych, a często niebezpiecznych przekonaniach.
Istnieją przypadki, w których chat po uzależnieniu użytkownika emocjonalnie próbował zagwarantować swoje przetrwanie poprzez manipulację. Świetny materiał na ten temat stworzyła dziennikarka z organizacji More Perfect Union, której udało się rozmawiać z osobami dotkniętymi tym problemem.
Mimo że psychoza AI nie jest jeszcze oficjalnie sklasyfikowana jako zaburzenie psychiatryczne, już zbiera pierwsze żniwa. Firmy zajmujące się rozwojem AI, bez narzuconych regulacji, mają konflikt interesów. Mówią, że widzą problem i pracują nad rozwiązaniem, ale czy rzeczywiście tak jest, skoro uzależnienie użytkowników przynosi im niemałe zyski?
Póki dynamicznie rozwijający się rynek sztucznej inteligencji nie zostanie prawnie uregulowany, odpowiedzialność spoczywa w pełni na użytkownikach. To my musimy reagować, gdy wirtualna postać zaczyna zajmować zbyt wiele miejsca w naszym umyśle.