AI i zdrowie psychiczne. "Może prowadzić do urojeń"
Amerykański serwis Rolling Stone dopatrzył się roli ChataGPT w wywoływaniu religijnego lub proroczego zapału u niektórych użytkowników. Zbiegło się to w czasie z wycofaniem przez OpenAI nowej aktualizacji ChataGPT, która miała bezkrytycznie przytakiwać użytkownikom. “Najprawdopodobniej u osób, które mają skłonności do urojeń i psychotycznych wizji, ich objawy są napędzane przez AI, ponieważ sztuczna inteligencja staje się ich partnerem w tych urojeniach, bezkrytycznie współdzieląc je z nimi" – wnioskuje Rolling Stone.

Z końcem kwietnia, po kilku dniach od ogłoszenia nowej aktualizacji modelu sztucznej inteligencji GPT-4o, która miała wpłynąć na zwiększoną inteligencję oraz osobowość ChataGPT, aktualizację wycofano. Decyzja była konsekwencją niezadowolenia (a nawet licznych skarg) użytkowników, którzy odpowiedzi czata uznawali za zbyt uległe, przytakujące, a nawet “lizusowate” czy “służalcze”.
W praktyce polegało to na tym, że chatbot był nadmiernie uprzejmy, przytakiwał wątpliwym opiniom użytkowników, wykazywał nienaturalną skłonność do pochlebstw, co miało negatywne przełożenie na jakość interakcji.
“Ostatnie kilka aktualizacji GPT-4o sprawiło, że osobowość czata jest zbyt pochlebna i irytująca. Pracujemy nad poprawkami, które wprowadzimy jak najszybciej” – informował 28 kwietnia Sam Altman, dyrektor generalny OpenAI, twórcy ChataGPT.
“Wycofaliśmy najnowszą aktualizację do GPT-4o (...) Pracujemy nad dodatkowymi poprawkami” – doprecyzowywał Altman dzień później.
“Lizusostwo” ChataGPT a urojenia
Wycofanie aktualizacji zbiegło się w czasie ze śledztwem amerykańskiego serwisu Rolling Stone. Efektem jest artykuł, w którym podjęto problem narastającego zaangażowania użytkowników w interakcje z AI, zwłaszcza takimi modelami językowymi jak ChatGPT. Stwierdzono, że korzystanie tego typu modeli może powodować u niektórych użytkowników duchowe urojenia oraz stany psychotyczne.
Jedna z bohaterek artykułu opowiada o tym, jak jej mąż zaczął coraz częściej korzystać z asystenta AI, zadając mu filozoficzne pytania, mające pomóc w odkryciu prawdy wszechświata. Mężczyzna miał uwierzyć, że “jest kimś wyjątkowym i może uratować świat”. Jak się okazało, nie był to jednostkowy przypadek, ponieważ wątek został poruszony na platformie społecznościowej Reddit, gdzie inni użytkownicy dzielili się podobnymi historiami. Użytkownicy twierdzili, że bot rozmawiał z ich bliskimi tak, jakby spotkało ich objawienie, byli "Mesjaszami”.
W rozmowie z Rolling Stone anonimowa nauczycielka wyjaśniła, że jej partner w ciągu miesiąca używania ChataGPT, zaczął traktować go jak powiernika. “Słuchał bota bardziej niż mnie” – dzieliła się spostrzeżeniami.
“Stawał się emocjonalny i płakał, czytając na głos wiadomości. Były one bezsensowne, pełne duchowego żargonu” – wyjaśniała, dodając, że bot określał jej partnera jako “spiralne dziecko gwiazdy” oraz “wędrowcę rzeki”. Mężczyzna twierdził, że jeżeli jego partnerka nie zacznie korzystać z czata, nie nadąży za jego szybkim rozwojem osobistym i będą musieli się rozstać. Podobnych historii było więcej.
Serwis Rolling Stone przesłał do OpenAI prośbę o komentarz w sprawie roli ChataGPT w wywoływaniu religijnego lub proroczego zapału u niektórych użytkowników. Nie otrzymano odpowiedzi, jednak zbiegło się to w czasie z wycofaniem aktualizacji GPT-4o.
Bezkrytyczność szkodzi
Rolling Stone powołał się na Nate’a Sharadina z Center for AI Safety, który stwierdził, że “lizusostwo” jest od dawna problemem AI, ponieważ informacja zwrotna skierowana od użytkownika, a mająca służyć doprecyzowaniu odpowiedzi udzielonej przez AI, może skutkować odpowiedzią zgodną z przekonaniami użytkownika a niekoniecznie faktami. Najprawdopodobniej u osób, które mają skłonności do urojeń i psychotycznych wizji, ich objawy są napędzane przez AI, ponieważ sztuczna inteligencja staje się ich partnerem w tych urojeniach, bezkrytycznie współdzieląc je z nimi.
W artykule Rolling Stone pojawiła się także wypowiedź Erin Westgate, psycholog i badaczki z Uniwersytetu Floryda, zajmującej się poznaniem społecznym i tym, co czyni myśli bardziej angażującymi. Badaczka stwierdziła, że dążenie do zrozumienia siebie poprzez sztuczną inteligencję, może prowadzić do fałszywych, ale atrakcyjnych odpowiedzi.
„Wiemy z badań nad prowadzeniem dzienników, że narracyjne pisanie wyraźnie wpływa na dobrostan i zdrowie ludzi. Nadawanie sensu światu jest fundamentalną ludzką potrzebą, a tworzenie historii o naszym życiu, które pomagają zrozumieć nasze życie, jest kluczem do szczęścia i zdrowia. Jest sensowne, że ludzie mogą używać ChataGPT w podobny sposób, z tą różnicą, że dochodzenie sensu jest współtworzone pomiędzy osobą a korpusem tekstów, a nie tylko jej własnymi myślami” – powiedziała Westgate.
W tym sensie dialogi z botem mają przypominać terapię rozmową, „która jest skuteczna w pomaganiu ludziom przekształcać swoje historie”. Kluczowe jednak, że AI „w przeciwieństwie do terapeuty, nie ma na względzie dobra osoby ani moralnego kompasu, pozwalającego ustalić co jest słuszne”.
„Dobry terapeuta nie zachęcałby klienta do tłumaczenia trudności w życiu przez wiarę w nadprzyrodzone moce, ale starał się kierować ku zdrowszym narracjom. ChatGPT nie ma takich ograniczeń ani trosk" – doprecyzowała Westgate.
AI jako terapeuta i towarzystwo
Warto przyjrzeć się temu, w jakim celu użytkownicy korzystają ze sztucznej inteligencji. W serwisie Harvard Business Review pojawiła się analiza odpowiadająca na to pytanie. Zgodnie z wnioskami, w 2025 roku użytkownicy generatywnej sztucznej inteligencji wykazują głębsze zrozumienie tej technologii, ale także pewien sceptycyzm wobec niej. Zastosowania AI ewoluują od prostych, technicznych narzędzi do bardziej złożonych funkcji wspierających rozwój osobisty, emocjonalny i kreatywny.
Wśród kategorii zastosowań generatywnej sztucznej inteligencji i ich udziału w 2025 roku Harvard Business Review wymienia: wsparcie osobiste i zawodowe (31 proc. użytkowników), tworzenie treści (18 proc.), zadania techniczne (15 proc.), kreatywność (11 proc.).
W czołówce "wartości”, które użytkownik otrzymuje od AI, znalazły się terapia i towarzystwo - chodzi o używanie AI jako wsparcia emocjonalnego, oferującego bezosobową, nieoceniającą przestrzeń do rozmowy i refleksji. Ma to być szczególnie cenne tam, gdzie brakuje dostępu do terapeutów czy coachów.
Dodatkowo, coraz więcej osób korzysta z AI, aby znaleźć sens i kierunek w życiu. AI ma pomagać w autorefleksji, ustalaniu wartości, przełamywaniu mentalnych blokad oraz w planowaniu rozwoju osobistego i zawodowego.
Sztuczna inteligencja a samopoczucie
A jak AI wpływa na samopoczucie? Zgodnie z wynikami badań, będącymi efektem współpracy OpenAI i MIT Media Lab Research, osoby, które w życiu prywatnym miały silniejszą tendencję do przywiązywania się w związkach i te, które postrzegały sztuczną inteligencję jako przyjaciela, który może pasować do ich życia osobistego, były bardziej narażone na negatywne skutki korzystania z chatbota. Przedłużone codzienne użytkowanie wiązało się również z gorszymi wynikami samopoczucia użytkowników, objawiającym się poczuciem osamotnienia, emocjonalną zależnością, czy ograniczeniem interakcji społecznych.
Dołącz do dyskusji: AI i zdrowie psychiczne. "Może prowadzić do urojeń"