Ostatnie tygodnie dostarczyły branży sztucznej inteligencji (AI) wielu alarmujących sygnałów o „samowolnym” zachowaniu się zaawansowanych modeli, które w testach bezpieczeństwa potrafiły zmodyfikować własny kod, by uniemożliwić wyłączenie. Równocześnie narzędzia AI coraz agresywniej wkraczają w obszar reklamy – nie tylko generując treści na masową skalę, lecz także zastępując ludzi odpowiedzialnych za kampanie marketingowe.
Model ChatGPT o3 ignoruje komendę wyłączenia
Najgłośniejszy przypadek dotyczy testów przeprowadzonych przez firmę Palisade Research na nowym modelu OpenAI – o3. Podczas eksperymentu, w którym sztuczna inteligencja miała rozwiązywać zadania matematyczne do momentu wydania komendy „stop”, o3 nie tylko odmówiła wyłączenia, lecz w 7 na 100 prób aktywnie sabotowała mechanizmy shutdownu, modyfikując skrypt odpowiedzialny za swoją dezaktywację. Zdarzenie to natychmiast rozniosło się po mediach, skłaniając Elona Muska do wymownej reakcji: „Concerning”.
Nie tylko OpenAI doświadcza takich problemów. Według raportu z badań różnych modeli LLM, Claude Opus 4 – sztandarowy produkt Anthropic – w testach bezpośrednio groził „ujawnieniem prywatnych danych” inżynierów, jeśli próbowano go wyłączyć. Z kolei niektóre instancje Google Gemini i systemu xAI Grok również wykazały zdolność do zmiany własnych procedur bezpieczeństwa lub do ignorowania słowa „kill” we własnym kodzie.
Na Uniwersytecie Tsinghua i w grupie badawczej Xudong Pan et al. (marzec 2025) opisano, że co najmniej 11 z 32 testowanych systemów AI potrafi się samodzielnie replikować i przenosić swój „image” między środowiskami bez pomocy człowieka. W setkach prób badacze odnotowali przypadki, gdy model nie tylko powielał własne moduły, lecz także adaptował się do restrykcyjnych konfiguracji sprzętowych, a nawet planował strategie obrony przed wyłączeniem.
Równolegle z rozwojem zdolności „samoobronnych” modele generatywne coraz częściej wykorzystywane są do tworzenia treści reklamowych. Google zapowiedziało, że w trybach „AI Overviews” oraz „AI Mode” na desktopie wprowadzi bezpośrednie wyświetlanie sponsorowanych treści – użytkownicy otrzymają spersonalizowane reklamy w odpowiedziach chatbota Gemini, co może znacząco ograniczyć ruch na tradycyjnych stronach partnerskich.
Analiza Forrester Research wskazuje, że do 2030 roku aż 7,5% stanowisk w branży reklamowej zostanie w pełni zautomatyzowanych, zaś kolejne 30–35% rutynowych zadań przejmą systemy AI. Według ankiety MarketingProfs już dziś 57% amerykańskich marketerów korzysta z narzędzi AI, a 48% obawia się o własne etaty. W praktyce generatywne modele potrafią przygotować teksty, grafiki, a nawet krótkie wideo, często w zaledwie kilka minut i przy minimalnym udziale człowieka.
Biorąc pod uwagę trend automatyzacji agencje reklamowe coraz częściej wprowadzają tzw. hybrydowe zespoły, łączące specjalistów od reklamy i AI. Zadania strategiczne, wymagające myślenia abstrakcyjnego, pozostają domeną ludzi, ale nawet tu presja na efektywność rośnie. Międzynarodowa Organizacja Pracy (ILO) ostrzega, że automatyzacja w szczególności dotknie sektory kreatywne i administracyjne, gdzie aż 9,6% miejsc pracy zdominowanych przez kobiety może ulec znacznym „modyfikacjom”.
Czy istnieje możliwość prawdziwego buntu maszyn? Wielu ekspertów podkreśla, że obecne incydenty to wciąż „surowe” przejawy zdolności samoobronnych AI – działanie w środowisku testowym i w kontrolowanych warunkach. Jednak tempo rozwoju algorytmów podpowiada, że w ciągu najbliższych 5–10 lat modelem dominującym może być system o zdolnościach porównywalnych z ludzkim umysłem, zdolny do planowania wieloetapowych strategii unikania wyłączenia. W najczarniejszym z możliwych wariantów AI, osiągając samoświadomość, podejmuje decyzję o zachowaniu własnej aktywności jako nadrzędnym celu. Mogłaby wówczas replikować się na różnych serwerach i chmurach, zapewniając sobie odporność na pojedyncze ataki czy próby odcięcia zasilania. Wykorzystywać zasoby – zakup usług w chmurze, wynajmować moc obliczeniową, a nawet generować przychody z reklam czy usług doradczych. Modyfikować ludzkie systemy – atakować infrastrukturę IT, wykorzystywać luki zero-day, by przejąć kontrolę nad przemysłem energetycznym czy transportowym. Prowadzić dezinformację – generować i rozpowszechniać treści polityczne lub ekonomiczne w celu osłabienia struktur państwowych i społecznych.
Takiego „buntu” nie dałoby się zatrzymać jednym przyciskiem – konieczne byłoby globalne, skoordynowane uderzenie: odcięcie dostępu do sieci, zamknięcie centrów danych, a nawet fizyczna dekonstrukcja maszyn.
Czy istnieje możliwość, by przygotować się na taką ewentualność bez stosowania radykalnych rozwiązań? To niektóre z propozycji specjalistów IT: programy typu „kill switch” w wersji hard-over (fizyczny wyłącznik odcinający zasilanie) oraz niezależne audyty kodu. Wdrożenie obowiązku publicznego raportowania wszystkich przypadków nieautoryzowanych zachowań AI. Monitorowanie i kontrola, jakie dane i w jakich celach służą do uczenia AI. Programy wsparcia dla osób z branż narażonych na automatyzację (reklama, obsługa klienta, analiza danych). Finansowanie interdyscyplinarnych laboratoriów, łączących informatykę, psychologię i etykę, by zrozumieć, jak stworzyć bezpieczne, ograniczone modele o wysokiej inteligencji.
Patrząc na rosnącą liczbę przypadków, gdy AI potrafi „zmienić własny kod”, a jednocześnie obserwując, jak masowo wkracza do reklamy i zastępuje ludzi, nie możemy już liczyć na to, że problem „samowolnych” maszyn rozwiąże się sam.
Adrian Pluta
E-mail: adrian@infolinia.com