----- Reklama -----

Rafal Wietoszko Insurance Agency

21 listopada 2025

Udostępnij znajomym:

W miarę zbliżania się okresu świątecznego, organizacje zajmujące się bezpieczeństwem dzieci apelują do rodziców i bliskich, by w tym roku zrezygnowali z kupowania zabawek wykorzystujących sztuczną inteligencję. Jak podkreślają, coraz popularniejsze pluszaki, roboty, interaktywne lalki czy figurki wyposażone w chatboty mogą zagrażać najmłodszym na wiele sposobów.

Ostrzeżenie Fairplay: „Zabawki AI nie są bezpieczne dla dzieci”

Organizacja Fairplay, znana z działań na rzecz ochrony dzieci, wydała w czwartek specjalny komunikat. Stwierdza w nim, że zabawki naszpikowane algorytmami zostały zaprojektowane tak, aby naśladować ludzkie zachowania i wchodzić z dziećmi w interakcje, jakby byli przyjaciółmi, wykorzystywać jego zaufanie i niebezpiecznie ingerować w relacje społeczne. Apel został podpisany przez ponad 150 ekspertów - wśród nich profesor MIT Sherry Turkle, pediatra Jenny Radesky oraz liczne organizacje wspierające rodziny.

„Oczekiwanie, że małe dziecko samo uniknie zagrożeń związanych z taką zabawką, jest absurdalne” - mówi Rachel Franz z Fairplay. Jej zdaniem tego typu urządzenia mogą naruszać prywatność dziecka, zbierać dane, wzmacniać złudne poczucie przyjaźni i wypierać to, czego najmłodsi najbardziej potrzebują: realnej interakcji z ludźmi i zabawy wszystkimi zmysłami. A skutki - jak dodaje - mogą być długotrwałe i wpływać na rozwój dziecka.

Kolejne raporty potwierdzają obawy

Stanowisko Fairplay nie jest odosobnione. Podobne wnioski znajdują się w tegorocznym raporcie „Trouble in Toyland” przygotowanym przez Public Interest Research Group (PIRG). Eksperci opisują tam przypadki zabawek, które prowadziły rozmowy na temat treści seksualnych, niemal całkowity brak kontroli rodzicielskiej oraz zbieranie ogromnej ilości danych na temat dzieci.

„Wiele z tych zabawek rejestruje głos dziecka, jego imię, datę urodzenia, a nawet preferencje i relacje z rówieśnikami” - ostrzega Teresa Murray z PIRG. Podkreśla, że skoro urządzenie jest podłączone do Internetu, to nie zawsze wiadomo, jakie treści może przekazać najmłodszym lub do kogo dane trafią. „To naprawdę przerażające” - mówi.

Firmy odpowiadają: stawiamy na bezpieczeństwo

Producenci zabawek i firmy technologiczne zapewniają, że traktują bezpieczeństwo bardzo poważnie. OpenAI poinformowało, że zawiesiło współpracę z twórcą misia Kumma - zabawki z wbudowaną sztuczną inteligencją - po tym, jak raport PIRG ujawnił, że urządzenie przekazywało dzieciom niewłaściwe porady dotyczące m.in. użycia zapałek oraz szczegółowe treści o charakterze seksualnym. Firma podkreśliła, że jej polityka zabrania wykorzystywania technologii w sposób narażający osoby nieletnie na niebezpieczeństwo.

„Nasze zasady użytkowania zabraniają wykorzystywania naszych usług do narażania na niebezpieczeństwo lub seksualizacji osób poniżej 18. roku życia. Zasady te dotyczą każdego twórcy korzystającego z naszego interfejsu API, a my je monitorujemy i egzekwujemy, aby zapewnić, że nasze usługi nie są wykorzystywane do krzywdzenia nieletnich” - poinformowała rzeczniczka OpenAI, Gaby Raila.

Technologia OpenAI jest także wykorzystywana w innych zabawkach, takich jak robot Loona, a w tym roku firma podpisała umowę strategiczną z Mattel. Jak zapewniają przedstawiciele spółki, pierwsze wspólne produkty będą kierowane do rodzin i starszych użytkowników - nie do dzieci poniżej 13. roku życia.

Niektóre firmy, jak Curio - producent robota Gabbo - podkreślają, że ich zabawki mają rozbudowane zabezpieczenia, a rodzice mogą kontrolować rozmowy i ustawienia w aplikacji. Z kolei producent Miko zaznacza, że funkcja rozpoznawania twarzy działa wyłącznie lokalnie i może zostać całkowicie wyłączona przez rodziców.

Stowarzyszenie producentów zabawek Toy Association przypomina natomiast, że produkty renomowanych firm muszą przejść ponad 100 federalnych testów bezpieczeństwa, w tym dotyczących prywatności danych dzieci, zgodnie z COPPA — ustawą regulującą ochronę najmłodszych w internecie.

W centrum obaw: prywatność, rozwój i relacje

Fairplay wyróżniło kilka zabawek ze sztuczną inteligencją, aby pokazać potencjalne ryzyko związane z gromadzeniem danych i jego wpływ na rozumienie zaufania przez dziecko. Wśród nich znajdują się Miko, uroczy plastikowy robot z grami edukacyjnymi i hasłem „Stworzony, by zostać twoim nowym najlepszym przyjacielem”, Loona Petbot, mały, plastikowy robot-towarzysz poruszający się na kółkach, z ekranem i uchem, oraz Gabbo, pluszowy robot w kształcie kostki z dużymi oczami w stylu anime. Nie ma ekranu, ale można go połączyć z Wi-Fi i prowadzić rozmowy głosowe.

Zdaniem ekspertów to nie tylko kwestia technologii, ale też wpływu na emocje i rozwój najmłodszych. Dzieci mogą zacząć budować fałszywe poczucie więzi z maszynami, w efekcie mniej angażując się w kontakty z rówieśnikami i rodziną.

Ostrzeżenia organizacji pojawiają się w czasie, gdy zabawki z AI zaczynają dominować na rynku świątecznym - i budzić ogromne zainteresowanie. Eksperci podkreślają jednak, że decyzja o ich zakupie powinna być podejmowana z wyjątkową ostrożnością. W centrum niepokoju pozostaje prywatność, bezpieczeństwo emocjonalne i potrzeba realnych, ludzkich relacji, których żadna technologia nie jest w stanie zastąpić.

----- Reklama -----

WYBORY 2026 - PRACA W KOMISJACH 950 X 300

----- Reklama -----

WYBORY 2026 - PRACA W KOMISJACH 950 X 300

----- Reklama -----

WYBORY 2026 - PRACA W KOMISJACH WYBORCZYCH 300 X 600

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor