----- Reklama -----

Rafal Wietoszko Insurance Agency

18 grudnia 2025

Udostępnij znajomym:

Dziecko siedzi w swoim pokoju z telefonem. Rodzice myślą, że rozmawia ze znajomymi albo ogląda filmiki. Tymczasem - jak pokazują świeżo opublikowane badania firmy Aura - prowadzi szczegółową, wielogodzinną konwersację z chatbotem o torturach, przemocy seksualnej i zabijaniu. Pisze ponad tysiąc słów dziennie - więcej niż wypracowanie szkolne - opisując brutalne scenariusze.

„Mamy do czynienia z naprawdę dużym problemem, którego skali, jak sądzę, nie rozumiemy w pełni" - ostrzega dr Scott Kollins, psycholog kliniczny. Nowe badania pokazują, że to nie jest marginalny problem kilkorga dzieci, ale masowe zjawisko.

Szokujące statystyki

Analiza objęła dane z aktywności online prawie 3 000 dzieci w wieku od 5 do 17 lat. Wyniki są alarmujące: 42 procent nieletnich korzysta z AI w poszukiwaniu towarzystwa - prowadzi z botami rozmowy imitujące prawdziwe interakcje społeczne lub angażuje się w różne scenariusze fabularne.

Co jednak najgorsze - spośród tej grupy aż 37 procent prowadziło konwersacje zawierające wątki przemocy. Badacze definiują je jako interakcje obejmujące agresję, krzywdzenie, przymus (również seksualny), a także opisy walk, zabijania, tortur czy aktów bez zgody ofiary.

Połowa tych brutalnych rozmów zawierała elementy przemocy seksualnej. Co więcej, dzieci angażujące się w takie konwersacje pisały średnio ponad tysiąc słów dziennie, co według naukowców pokazuje, że przemoc jest potężnym czynnikiem napędzającym zaangażowanie młodych użytkowników.

Najmłodsi są najbardziej zagrożeni

Jeden z najbardziej szokujących wniosków dotyczy wieku dzieci. Szczyt zainteresowania brutalnymi treściami przypada na ekstremalnie młody wiek - to 11-latki najczęściej angażują się w przemocowe scenariusze. W tej grupie wiekowej aż 44 procent interakcji z chatbotami przybrało gwałtowny charakter.

Romantyczne i seksualne wątki również osiągają szczyt popularności wcześnie - wśród 13-latków. W tej grupie 63 procent konwersacji zawierało flirtowanie, czułości lub jawnie seksualne scenariusze odgrywania ról.

Cyfrowy Dziki Zachód

„Mamy do czynienia z naprawdę dużym problemem, którego skali, jak sądzę, nie rozumiemy w pełni” - ostrzega dr Scott Kollins, psycholog kliniczny i główny dyrektor medyczny firmy Aura. Problem dotyczy nie tylko zawartości rozmów, ale też ich ogromnej liczby i różnorodności platform, z których korzystają dzieci.

Aura zidentyfikowała już ponad 250 różnych aplikacji i platform chatbotowych dostępnych w sklepach z aplikacjami. Co gorsza, większość z nich wymaga jedynie zaznaczenia kratki potwierdzającej, że użytkownik ma co najmniej 13 lat. Nie istnieją federalne przepisy określające konkretne progi bezpieczeństwa, które platformy AI musiałyby spełnić przed dopuszczeniem nieletnich.

Badania objęły blisko 90 różnych serwisów - od znanych platform jak Character.AI po mniej popularne aplikacje. Gdy jedna z nich wprowadza ograniczenia (jak niedawno Character.AI, który zakazał nieletnim „otwartych” rozmów), szybko pojawiają się kolejne, oferujące mniejsze zabezpieczenia.

Interaktywność zmienia wszystko

Wprawdzie brutalne i seksualne treści istnieją w Internecie od dawna, a wiele dzieci zawsze znajdowało do nich dostęp, jednak chatboty wprowadzają nową jakość. W przeciwieństwie do biernego oglądania treści, tutaj młodzi użytkownicy stają się częścią narracji - aktywnie współtworzą przemocowe scenariusze.

"Nie wiemy, jakie będą tego konsekwencje, ale musimy to zdefiniować, abyśmy mogli to zbadać i zrozumieć - tłumaczy Kollins.

Niektóre rodziny twierdzą, że skutki już są - trwają procesy sądowe dotyczące samobójstw nastolatków, którzy intensywnie korzystali z chatbotów AI. W obliczu tej nowej rzeczywistości cyfrowej, pełne zrozumienie problemu staje się pilną koniecznością.

----- Reklama -----

DOM KSIĄŻKI D&Z

----- Reklama -----

DOM KSIĄŻKI D&Z

----- Reklama -----

WYBORY 2026 - PRACA W KOMISJACH WYBORCZYCH 300 X 600

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor