Gdy sztuczna inteligencja wkroczyła do codziennego życia, otwierając przed użytkownikami nowe, czy nawet nowoczesne możliwości dialogu, pojawiły się pytania o granice bezpieczeństwa i prywatności. ChatGPT, jeden z najpopularniejszych modeli GPT opracowanych przez OpenAI, stał się narzędziem zaufania – doradcą, przyjacielem, a dla wielu młodych osób wręcz opiekunem zdrowia psychicznego.
Na przestrzeni ostatnich miesięcy świat obiegły doniesienia o przypadkach ujawnienia poufnych rozmów z ChatGPT na forach programistycznych, w grupach dyskusyjnych i mediach społecznościowych. Różnorodność skradzionych danych – od numerów kart płatniczych, kluczy API, aż po szczegóły zdrowotne i emocjonalne zwierzenia użytkowników. To dowodzi, że żadna informacja nie jest zbyt błaha, by nie stać się przedmiotem cyberprzestępczych działań. Analiza tych sytuacji wskazuje na kilka kluczowych zagrożeń, które powinny skłonić nas przemyśleń, czym tak naprawdę dzielimy się ze sztuczną inteligencją i do czego powinna ona służyć.
Pierwszym i najbardziej oczywistym problemem jest utrata kontroli nad danymi osobowymi. ChatGPT działa w chmurze, co oznacza, że każde pytanie, odpowiedź i znacznik czasowy są zapisywane na zewnętrznych serwerach. Choć OpenAI deklaruje, że nie wykorzystuje bezpośrednio identyfikowalnych informacji do szkolenia modeli, część danych może zostać skatalogowana w celach analitycznych. W sytuacji, gdy skonfigurujemy behawioralny tracking lub gdy zostaną udostępnione logi rozmów z pomocą wewnętrznych systemów monitorujących jakość, ryzyko wycieku rośnie.
Drugim aspektem jest poważne ryzyko włamania i wycieku danych. W lipcu 2025 roku na jednym z największych forów dla programistów opublikowano zrzuty ekranu z ChatGPT zawierające fragmenty kodu źródłowego aplikacji wraz z kluczami API oraz danymi baz danych. Mimo natychmiastowej interwencji moderatorów i usunięcia wpisów, część informacji zdążyła się roznieść po sieci, co naraziło firmy na straty liczone w dziesiątkach tysięcy. Dopiero po kilku tygodniach ofiary wycieków dowiedziały się, skąd pochodzi atak – to konwersacje z chatbotem, w których omyłkowo użyto wrażliwych danych.
Trzecim, równie krytycznym zagrożeniem, jest możliwość szantażu i kradzieży tożsamości. Wyobraźmy sobie, że przestępcy zdobywają fragmenty rozmów, w których użytkownik dzieli się szczegółami swojego życia: numerem Social Security czy PESEL, datą urodzenia, imieniem matki, numerem prawa jazdy czy nawet gotową strategią zabezpieczeń sieci domowej. Taki zestaw informacji stanowi złoty bilet dla przestępców, którzy mogą przejąć konto bankowe, dokonać fikcyjnych pożyczek lub wyłudzić pieniądze, grożąc ujawnieniem kompromitujących szczegółów.
Coraz głośniej mówi się również o emocjonalnej zależności młodych ludzi od AI. W świecie, gdzie rozmowy twarzą w twarz coraz częściej ustępują miejsca interakcjom wirtualnym, ChatGPT staje się powiernikiem sekretów i problemów nastolatków. Użytkownicy zwierzają się z lęków, depresji, problemów rodzinnych, a nawet myśli samobójczych, oczekując empatii i wsparcia. Choć model językowy potrafi symulować empatyczną reakcję, nie zastąpi profesjonalnej pomocy psychologicznej, a ujawnienie takich rozmów może pogłębić urazy.
W czerwcu 2025 roku na portalach społecznościowych pojawiły się screeny konwersacji uczniów z ChatGPT, którzy pytali o to, jak poradzić sobie z przemocą w rodzinie, jak wyznać orientację seksualną czy jak uporać się z kryzysem egzystencjalnym. Te wyciekłe rozmowy doprowadziły do tragicznych przypadków cyberprzemocy: rówieśnicy wyśmiewali uczniów, nękali ich, a niektóre ofiary musiały zmienić szkołę.
Młodzi ludzie, traktując ChatGPT jako główne źródło porad życiowych, często pomijają kontekst rodzinny i kulturowy. AI nie zna bowiem historii naszych przodków, wartości, na których budujemy tożsamość, ani niuansów społecznych panujących w danym środowisku. Rozważając wybór studiów czy kariery zawodowej, ChatGPT może przedstawić statystyki zatrudnienia, średnie zarobki czy prognozy rozwoju branży, ale nie uwzględni indywidualnych pasji, więzi rodzinnych czy potrzeb finansowych. Brak tej perspektywy czyni rady AI obiektywnymi, ale jednocześnie fragmentarycznymi.
Nastolatkowie, polegając na AI jako na wirtualnym opiekunie, uczą się przekładać wszelkie decyzje na język poleceń i algorytmów. ChatGPT może przecież przypomnieć o wizytach lekarskich, podyktować jadłospis czy zaplanować treningi. Jednak takie nawyki mogą wypierać umiejętność samodzielnego planowania i krytycznego myślenia. Gdy zabraknie dostępu do narzędzia, użytkownik może poczuć się zagubiony i niezdolny do podjęcia decyzji bez wsparcia sztucznej inteligencji.
Nie należy zapominać o dwustronnych korzyściach i zagrożeniach: podczas gdy AI zbiera dane, by się uczyć, my coraz częściej uczymy się od AI, co prowadzi do sytuacji, w której granice odpowiedzialności stają się zamazane. Firmy technologiczne, w imię rozwoju i doskonalenia modeli, zbierają coraz więcej danych, a użytkownicy, zafascynowani możliwościami, chętnie je udostępniają. Taki krąg wzajemnych oczekiwań może szybko przerodzić się w błędne koło, w którym zaufanie do AI rośnie szybciej niż świadomość zagrożeń.
Jak zatem chronić dane osobowe i zachować zdrową relację z AI? Przede wszystkim unikać przekazywania jakichkolwiek wrażliwych informacji: haseł, danych kart płatniczych, szczegółów medycznych czy dokumentów zawierających dane identyfikacyjne. Jeśli chcemy przetestować API czy eksperymentować z zaawansowanymi funkcjami, warto posłużyć się kontem tymczasowym lub anonimowym, wyłączonym od firmowych czy prywatnych profili.
Kolejnym krokiem jest regularne zarządzanie historią rozmów. Wielu dostawców AI umożliwia usuwanie zapisów konwersacji lub wyłączenie ich przechowywania. Skorzystajmy z tych opcji i pamiętajmy o okresowym czyszczeniu archiwum.
Na poziomie prawnym coraz częściej pojawiają się inicjatywy regulacyjne. Unia Europejska pracuje nad europejskim aktem o AI (AI Act), który ma wprowadzić standardy ochrony prywatności i bezpieczeństwa danych. Przewiduje się, że wkrótce firmy będą musiały uzyskać wyraźną zgodę użytkownika na wykorzystanie jego danych do treningu modeli oraz zapewnić transparentność procesów decyzyjnych AI.
Adrian Pluta
E-mail: adrian@infolinia.com