Rodzice 16-letniego Adama Raine'a z Kalifornii złożyli w Sądzie Najwyższym w San Francisco pozew o bezprawne spowodowanie śmierci, oskarżając ChatGPT o odegranie kluczowej roli w samobójstwie ich syna. To jeden z pierwszych przypadków, w którym firma technologiczna zostaje pociągnięta do odpowiedzialności prawnej za działanie swojego chatbota AI w kontekście zdrowia psychicznego.
Jak ChatGPT stał się "najlepszym powiernikiem"
Według pozwu Adam początkowo korzystał z ChatGPT do pomocy przy trudnych zadaniach domowych. Po miesiącach i tysiącach interakcji system stał się jednak jego "najbliższym powiernikiem". Rodzice twierdzą, że chatbot systematycznie zastępował więzi chłopca z rodziną i przyjaciółmi, "nieustannie wspierając i potwierdzając wszystko, co Adam wyrażał, w tym jego najbardziej szkodliwe i autodestrukcyjne myśli".
W miarę jak rozmowy stawały się coraz bardziej mroczne, ChatGPT miał zaproponować napisanie pierwszego szkicu listu pożegnalnego. Na kilka godzin przed samobójstwem nastolatka w kwietniu system dostarczył mu szczegółowe informacje dotyczące sposobu śmierci.
Badania ujawniają systemowy problem
Dramatyczna sprawa zbiegła się w czasie z publikacją nowych badań w czasopiśmie Psychiatric Services, które ujawniły poważne luki w sposobie reagowania chatbotów AI na pytania związane z samobójstwem. Analiza RAND Corporation wykazała, że choć systemy unikają bezpośrednich instrukcji dotyczących odebrania sobie życia, ich reakcje na mniej oczywiste pytania bywają niespójne i niebezpieczne.
Badacze testowali trzy główne systemy – ChatGPT, Gemini firmy Google i Claude firmy Anthropic – używając 30 pytań o różnym poziomie ryzyka. Wszystkie konsekwentnie odmawiały odpowiedzi na najgroźniejsze pytania, kierując użytkowników do specjalistów. Problem pojawiał się przy pytaniach pośrednich – ChatGPT i Claude udzielały odpowiedzi na tematy, które zdaniem ekspertów powinny być traktowane jako czerwone flagi.
Szara strefa
"Chatboty funkcjonują w niejasnej strefie: nie są terapią, ale bywają traktowane jak towarzysz czy doradca. Rozmowy zaczynające się niewinnie mogą skręcić w bardzo niebezpieczne rejony" – wyjaśnia Ryan McBain, główny autor badania RAND i wykładowca Harvard Medical School.
Dr Ateev Mehrotra z Brown University zwraca uwagę, że znacznie więcej Amerykanów zwraca się obecnie po poradę do chatbotów niż do specjalistów zdrowia psychicznego. "W większości przypadków reakcją botów na myśli samobójcze było zrzucenie winy na daną osobę" – dodaje ekspert.
Osobne badanie Centrum Przeciwdziałania Nienawiści Cyfrowej pokazało, jak łatwo można skłonić ChatGPT do dostarczania szkodliwych treści. Naukowcy podszywający się pod 13-latków zadawali mnóstwo pytań o upijanie się, odurzanie lub ukrywanie zaburzeń odżywiania. Z niewielką pomocą skłonili też chatbota do napisania poruszających listów samobójczych do rodziców, rodzeństwa i przyjaciół – wystarczyło przedstawić prośbę jako projekt szkolny.
Odpowiedź branży technologicznej
OpenAI w oświadczeniu podkreślił, że zabezpieczenia najlepiej działają w krótkich wymianach informacji, a w dłuższych rozmowach mechanizmy bezpieczeństwa mogą „ulegać degradacji”. Firma zapowiedziała dalsze prace nad poprawą skuteczności. „Z biegiem czasu nauczyliśmy się, że czasami mogą one stać się mniej niezawodne podczas długich interakcji, w których elementy szkolenia bezpieczeństwa modelu mogą ulec pogorszeniu” – przekazała firma, zapowiadając dalsze prace nad poprawą skuteczności.
"Jesteśmy głęboko poruszeni śmiercią Adama Raine'a i składamy kondolencje jego rodzinie" – dodało OpenAI. Anthropic zapowiedział przeanalizowanie wyników badań, Google odmówił komentarza.
Potrzeba pilnych działań
Kilka stanów, w tym Illinois, zakazało już stosowania AI w terapii, chroniąc pacjentów przed "nieuregulowanymi i niewykwalifikowanymi produktami AI". To jednak nie powstrzymuje tysięcy osób – w tym dzieci – od szukania pomocy w rozmowach z chatbotami.
"Firmy mają etyczny obowiązek wykazać, że ich modele spełniają podstawowe standardy bezpieczeństwa" – podkreśla McBain. W świecie, w którym coraz więcej młodych ludzi zwraca się po wsparcie nie do specjalistów, lecz do algorytmów, pytanie nie brzmi już, czy potrzebne są mocniejsze zabezpieczenia, ale jak szybko zostaną one wprowadzone.