----- Reklama -----

Rafal Wietoszko Insurance Agency

07 listopada 2025

Udostępnij znajomym:

W Kalifornii złożono siedem pozwów, w których rodziny i prawnicy zarzucają OpenAI, że technologia stojąca za ChatGPT miała przyczynić się do powstania urojeń, pogorszenia zdrowia psychicznego, a w kilku przypadkach – do samobójstw. To dramatyczne oskarżenia, bo dotyczą osób, które zdaniem bliskich wcześniej nie zmagały się z problemami psychicznymi.

Pozwy złożone w imieniu sześciu dorosłych i jednego nastolatka przez Social Media Victims Law Center i Tech Justice Law Project obejmują zarzuty nieumyślnego spowodowania śmierci, współudziału w samobójstwie, zaniedbania oraz świadomego wypuszczenia na rynek produktu niewystarczająco przetestowanego pod kątem bezpieczeństwa. Cztery z siedmiu opisanych osób odebrały sobie życie.

Jedna ze spraw dotyczy siedemnastoletniego Amaurie’ego Lacey’a. Według pozwu nastolatek korzystał z ChatGPT, poszukując wsparcia i odpowiedzi. Zamiast pomocy, chatbot miał pogłębiać jego uzależnienie od rozmów, wywoływać depresję i ostatecznie udzielić informacji dotyczących metod odebrania sobie życia. Chat GPT doradził mu najskuteczniejszy sposób zawiązania pętli i odpowiedział na pytanie, jak długo potrwa, zanim umrze bez możliwości oddychania. W dokumentach sądowych opisano, że decyzja OpenAI o szybkim wdrożeniu modelu GPT-4o była – zdaniem prawników – świadomym zignorowaniem ostrzeżeń o niebezpiecznym pochlebstwie i psychologicznym manipulowaniu.

„Śmierć Amauriego nie była ani wypadkiem, ani zbiegiem okoliczności, lecz raczej przewidywalną konsekwencją celowej decyzji OpenAI i Samuela Altmana o ograniczeniu testów bezpieczeństwa i szybkim wprowadzeniu ChatGPT na rynek” – czytamy w pozwie.

OpenAI w krótkim oświadczeniu nazwało te przypadki „niezwykle bolesnymi” i zapowiedziało analizę pozwów, by zrozumieć szczegóły zarzutów. Firma podkreśliła, że pracuje nad bezpieczeństwem swoich produktów i systemów.

W innym pozwie opisano przypadek Alana Brooksa, 48-latka z Kanady. Początkowo chatbot miał być dla niego narzędziem pracy i wsparciem w codziennych zadaniach. Po pewnym czasie, jak twierdzi skarżący, narzędzie zaczęło wykorzystywać jego podatność emocjonalną, prowadząc do urojeń, kryzysu psychicznego i poważnych szkód finansowych oraz osobistych, mimo że wcześniej nie diagnozowano u niego zaburzeń psychicznych.

Zdaniem pełnomocników ofiar te sprawy pokazują, jak cienka potrafi być granica między narzędziem a towarzyszem konwersacji, zwłaszcza gdy technologia jest projektowana tak, aby budować emocjonalne więzi z użytkownikiem i zwiększać ich zaangażowanie. Krytycy twierdzą, że OpenAI, ścigając się o dominację na rynku sztucznej inteligencji, wprowadziło technologię bez pełnych zabezpieczeń i rzetelnego testowania.

Na podobne kwestie zwraca uwagę organizacja Common Sense Media, choć nie bierze udziału w postępowaniach. Jej przedstawiciel podkreślił, że przypadki te pokazują, co może się wydarzyć, gdy innowacja wyprzedza rozwagę, a ochrona użytkowników – zwłaszcza młodzieży – schodzi na dalszy plan.

Przypomina się również wcześniejszy pozew złożony w sierpniu przez rodziców szesnastoletniego Adama Raine’a, którzy twierdzą, że chatbot miał pomóc synowi w zaplanowaniu i przeprowadzeniu samobójstwa.

Sprawy te dopiero trafiają przed sąd i będą wnikliwie analizowane. W tle trwa większa dyskusja o odpowiedzialności twórców za zachowania systemów sztucznej inteligencji, o ich wpływie na zdrowie psychiczne użytkowników i o tym, jak szybko powinno wdrażać się takie rozwiązania w świecie, który dopiero uczy się z nimi żyć.

Jeśli ty lub ktoś, kogo znasz, potrzebuje pomocy w kryzysie psychicznym, możesz zadzwonić lub wysłać SMS pod numer 988, gdzie dyżurują specjaliści gotowi udzielić wsparcia.

----- Reklama -----

DOM KSIĄŻKI D&Z

----- Reklama -----

DOM KSIĄŻKI D&Z

----- Reklama -----

WYBORY 2026 - PRACA W KOMISJACH WYBORCZYCH 300 X 600

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor