Zjawisko łączenia emocji z technologią przestaje być domeną science fiction. Według najnowszego raportu organizacji Center for Democracy and Technology (CDT), niemal jeden na pięciu uczniów szkół średnich w USA przyznał, że sam miał lub zna kogoś, kto miał romantyczną relację z AI. Jeszcze więcej – 42 procent – twierdzi, że oni lub ich znajomi korzystali ze sztucznej inteligencji w celach towarzyskich lub dla wsparcia emocjonalnego.
Szkoły coraz bardziej zintegrowane z AI
Badanie objęło ponad 2 800 uczestników: około 1 000 uczniów klas 9–12, 1 000 rodziców i 800 nauczycieli szkół publicznych. Zdecydowana większość – ponad 85 procent uczniów i nauczycieli – korzystała z AI w ubiegłym roku szkolnym. Jak wyjaśnia Elizabeth Laird, współautorka raportu, istnieje silna korelacja między częstotliwością używania AI w szkołach a postrzeganiem tej technologii przez młodzież.
„ Im więcej zastosowań sztucznej inteligencji ma szkoła, tym częściej uczniowie mówią: ‘znam kogoś, kto postrzega AI jako przyjaciela’ albo „znam kogoś, kto uważa sztuczną inteligencję za partnera” – mówi Laird.
Zależność jest widoczna także w obszarach bardziej niepokojących. Szkoły, które intensywnie korzystają z AI (co najmniej 7–10 różnych zastosowaniach w przypadku nauczycieli i 4-6 w przypadku uczniów), częściej doświadczają wycieków danych, ataków hakerskich i problematycznych interakcji między uczniami a systemami AI.
Sztuczna inteligencja i nowe formy przemocy
„Ta technologia to nowy wektor molestowania seksualnego i zastraszania, które od dawna stanowiły problem [przed powszechnym wykorzystaniem sztucznej inteligencji]” – mówi Laird – „a to stało się nowym sposobem na zaostrzenie tego zjawiska”.
Raport CDT wskazuje, że 28 procent nauczycieli korzystających z AI w wielu szkolnych zadaniach przyznało, iż ich szkoła doświadczyła poważnego naruszenia bezpieczeństwa danych, w porównaniu z 18 procentami w szkołach, które używają AI w ograniczonym zakresie.
Według Laird, to zrozumiałe: im więcej informacji przekazuje się systemom sztucznej inteligencji, tym większe ryzyko ich utraty. „AI gromadzi ogromne ilości danych i generuje równie dużo informacji zwrotnych. To tworzy niebezpieczne połączenie” – wyjaśnia.
Jeszcze poważniejszym problemem jest pojawienie się AI jako nowego narzędzia przemocy i nękania. Deepfake’i – fałszywe zdjęcia i nagrania tworzone przez algorytmy – coraz częściej są wykorzystywane do seksualnego upokarzania lub szantażowania uczniów. „To zjawisko nie jest nowe, ale AI nadała mu nowy wymiar” – podkreśla Laird.
Granica między rzeczywistością a iluzją
W szkołach, w których technologia odgrywa dużą rolę, uczniowie częściej deklarują, że korzystają z AI w celach emocjonalnych – traktując sztuczną inteligencję jako „przyjaciela”, „terapeutę” lub „ucieczkę od rzeczywistości”. Niektórzy idą krok dalej, tworząc z AI relacje romantyczne.
Aż 31 procent uczniów, którzy rozmawiali z AI o osobistych sprawach, przyznało, że robiło to za pomocą szkolnego urządzenia lub oprogramowania.
„Uczniowie muszą wiedzieć, że nie rozmawiają z człowiekiem” – mówi Laird. „Rozmawiają z narzędziem, które ma swoje ograniczenia. Nasze badanie pokazuje, że edukacja w zakresie korzystania z AI jest wciąż bardzo powierzchowna”.
Zaledwie 11 procent nauczycieli uczestniczących w badaniu otrzymało szkolenie z tego, jak reagować, jeśli zauważą, że kontakt ucznia z AI może być szkodliwy dla jego zdrowia psychicznego.
Nowa era edukacji – i nowe wyzwania
Nauczyciele, którzy często używają AI, częściej dostrzegają jej zalety: oszczędność czasu, indywidualizację nauki, lepsze dopasowanie materiału do ucznia. Jednak młodzież z tych samych szkół częściej czuje się mniej związana z nauczycielami i ma większe obawy wobec technologii.
„Uczniowie widzą wartość w AI, ale dostrzegają też jej konsekwencje” – mówi Laird. „Jeśli chcemy naprawdę wykorzystać jej potencjał, musimy zacząć słuchać, co młodzi ludzie o niej mówią”.