Poprawiają ChatGPT. Lepiej zadba o twój dobrostan psychiczny
Asystentom AI, w tym ChatGPT od OpenAI, ufamy coraz bardziej. Pytamy ich o bardzo intymne i złożone aspekty naszego życia. Jednak asystenci nie zawsze są w stanie sobie poradzić z meandrami ludzkiej psychiki i udzielić prawidłowej odpowiedzi. Z tym właśnie problemem postanowił się zmierzyć OpenAI wprowadzając zmiany do swojej głównej usługi jaką jest ChatGPT.

Ciężko jest dopasować modele AI do użytkowników. Czasami są zbyt uległe i bezpieczne, a czasami są zbyt bezpośrednie jak to miało miejsce w przypadku aktualizacji Groka 3. Z każdym miesiącem coraz dłuższa robi się lista badań, które pokazują negatywny wpływ korzystania z AI na społeczeństwo. Mimo to rośnie liczba osób, które świadomie bądź nie, traktuje asystentów jak psychologów, psychiatrów powierzając im swoje zdrowie bądź zdrowie swoich bliskich.
Sztuczna inteligencja nie jest dobrym psychologiem
I jeszcze długo nim nie będzie. Ma problemy z rozpoznaniem kontekstu wypowiedzi, a co ważniejsze nie jest w stanie zbudować zdrowej relacji człowiekiem. Mimo to wybieramy chociażby ChatGPT, zamiast wizyty u specjalisty, bo jest taniej, szybciej, towarzyszy temu mniejszy stres, a sama usługa ma większą dostępność. Problem jest na tyle poważny, że OpenAI postanowiło działać i zmodyfikować swoją flagową usługę, tak aby poprawiała nasz dobrostan psychiczny i przynajmniej nie pogłębiała chorób, z którymi musimy się zmagać każdego dnia.
Zobacz: Terapie z wykorzystaniem czatbotów AI to ryzyko. Badania potwierdzają
Oświadczenie OpenAI, które ciężko się czyta
Zmiany i modyfikacje zostały ogłoszone na oficjalnej stronie firmy na początku sierpnia. Może to z mojej strony trącić hipokryzją, ale to oświadczenie z wyjaśnieniami nie brzmi dobrze. Jakbym czytał pracę zaliczeniową swojego studenta w 2023 roku napisaną przez ChatGPT, a potem jeszcze nie do końca poprawnie przetłumaczoną na język polski. Nie będę się pastwił już nad formą, ale mam pewien niedosyt i czuje rozczarowanie. Tak zaawansowane narzędzie jak ChatGPT nie potrafi napisać sprawnie prostego tekstu, więc jak ma zadbać o zdrowie psychiczne swoich użytkowników?
Zobacz: GPT-5 i jego możliwości. Przełom czy chwilowy powrót do czołówki peletonu AI?
OpenAI zapewnia, że pracuje nad trzema zmianami. Pierwsza jest dosyć tajemnicza, ale wydaje się, że chodzi o lepsze rozpoznawanie użytkowników, którzy przejawiają problemy w sferze mentalnej. Brzmi to tak:
„Wsparcie w trudnych chwilach. ChatGPT jest trenowany tak, aby odpowiadać z uczciwością i rzetelnością. Zdarzały się przypadki, w których nasz model 4o nie był w stanie rozpoznać oznak urojenia lub uzależnienia emocjonalnego. Choć zdarza się to rzadko, nieustannie udoskonalamy nasze modele i opracowujemy narzędzia, które mają pomóc w skuteczniejszym wykrywaniu oznak stresu psychicznego lub emocjonalnego. Dzięki temu ChatGPT może odpowiednio reagować i w razie potrzeby wskazywać użytkownikom zasoby oparte na dowodach.”
Na szczęście druga zmiana jest oczywista i polega na zwracaniu użytkownikom uwagi, gdy za długo i zbyt intensywnie korzystają z ChatGPT.
Trzecia zmiana dotyczy rozwiązywania problemów osobistych takich jak „czy mam zerwać ze swoim chłopakiem”. ChatGPT raczej na takie i podobne pytania nie będzie udzielał odpowiedzi. W zamian będzie pomagał przemyśleć kwestie osobiste i razem z użytkownikiem przeanalizować wszelkie argumenty za i przeciw.
Przeczytaj: AI: przyjaciel, który może cię zdradzić
OpenAI ze wsparciem specjalistów
W oświadczeniu zapowiedziano też współpracę z 90 lekarzami z 30 krajów z różnych dziedzin. Poza tym OpenAI będzie współpracował z ekspertami zajmującymi się interakcjami na linii człowiek-komputer oraz zwoła grupę badawczą złożoną ze specjalistów różnych dziedzin. Niestety zabrakło konkretów w postaci nazwisk lekarzy czy specjalistów, ich doświadczenia, zadań, których się podejmą czy sposobu, w jaki sposób będzie działała grupa doradcza.
Wyzwania, z którymi mierzy się nie tylko OpenAI, ale też inne firmy rozwijające asystentów AI, są bardzo trudne w realizacji. Głównie dlatego, że do tej pory jeszcze nie zgłębiliśmy wszystkich sekretów naszej biologii i psychiki, więc ciężko myśleć w tym przypadku o dograniu ich z dynamicznie rozwijającą się sztuczną inteligencją. Podobnie jak w przypadku mediów społecznościowych na szali tego wyzwania leży zdrowie i dobrostan psychiczny milionów ludzi. Nie wyobrażam sobie też sytuacji, w której big techy nie biorą pełnej odpowiedzialności za nietrafione czy szkodliwe „porady”, których udziela rozwijana przez nich sztuczna inteligencja.
Tego nie możesz przegapić: Nowy trend na ChatGPT: Lustereczko powiedz przecie…
Dołącz do dyskusji: Poprawiają ChatGPT. Lepiej zadba o twój dobrostan psychiczny