----- Reklama -----

Ogłoszenia, felietony, informacje Polonijne - Tygodnik Monitor

28 lipca 2025

Udostępnij znajomym:

Trwa pobieranie wersji audio...

Telefon dzwoni jak zwykle — znajomy numer, znajomy głos. Ale czy to na pewno ta osoba? W erze sztucznej inteligencji nie można już ufać nawet temu, co się słyszy. Coraz bardziej realistyczne cyfrowe podróbki głosu i wizerunku wkraczają do świata polityki, biznesu i codziennego życia. To już nie technologia przyszłości, lecz realne zagrożenie, które podważa podstawy zaufania w kontaktach międzyludzkich.

Cyberprzestępcy i grupy powiązane z reżimami takimi jak Korea Północna czy Rosja coraz częściej wykorzystują syntetyczne obrazy i dźwięki, by podszywać się pod prezesów, urzędników państwowych czy kandydatów do pracy. Celem może być dostęp do wrażliwych danych, zainfekowanie sieci firmowych albo po prostu kradzież pieniędzy.

Postęp technologiczny sprawił, że stworzenie realistycznego deepfake’a jest dziś dziecinnie proste. Problem w tym, że jego wykrycie — już niekoniecznie. Właśnie dlatego eksperci przekonują, że jedyną skuteczną obroną może być inne narzędzie oparte na AI. W skrócie: sztuczna inteligencja musi zacząć bronić nas przed… sztuczną inteligencją.

„Jako ludzie jesteśmy niezwykle podatni na oszustwa” – powiedział Vijay Balasubramaniyan, prezes i założyciel firmy technologicznej Pindrop Security. Wierzy jednak, że rozwiązanie problemu deepfake’ów może być w zasięgu ręki: „Będziemy walczyć”.

Gdy technologia trafia w niepowołane ręce

Latem tego roku ktoś stworzył deepfake’a sekretarza stanu Marco Rubio i próbował za jego pomocą kontaktować się z zagranicznymi ministrami, amerykańskim senatorem i jednym z gubernatorów. Wcześniej pojawił się inny fałszywy Rubio — ogłosił, że USA planują odciąć Ukrainę od internetu Starlink Elona Muska. Oświadczenie szybko zdementowały ukraińskie władze, ale sam incydent pokazał, jak łatwo można dziś zasiewać dezinformację.

W maju podszywano się pod szefową kancelarii prezydenta Trumpa — Susie Wiles. Wszystkie te przypadki budzą poważne obawy wśród ekspertów ds. bezpieczeństwa narodowego. Jeśli ktoś uwierzy, że rozmawia z przedstawicielem Białego Domu, może ujawnić tajne informacje albo podjąć błędne decyzje w kontekście dyplomatycznym czy wojskowym.

„Motywy są różne — wyciąganie poufnych danych, dostęp do skrzynek e-mailowych albo do całych systemów IT” — mówi Kinny Chan, szef firmy QiD zajmującej się cyberbezpieczeństwem.

W zeszłym roku wyborcy demokratów w New Hampshire otrzymali automatyczny telefon z prośbą o niegłosowanie w nadchodzących prawyborach w tym stanie. Głos w rozmowie brzmiał podejrzanie podobnie do głosu ówczesnego prezydenta Joe Bidena, ale w rzeczywistości został stworzony przy użyciu sztucznej inteligencji.

Steven Kramer, konsultant polityczny, który przyznał się do wysyłania fałszywych automatycznych połączeń telefonicznych, powiedział, że chciał zwrócić uwagę na zagrożenia, jakie deepfake'i stwarzają dla amerykańskiego systemu politycznego. Kramer został w zeszłym miesiącu uniewinniony z zarzutów utrudniania głosowania i podszywania się pod kandydata.

„Zrobiłem to za 500 dolarów” – powiedział Kramer. „Wyobraźcie sobie, co by się stało, gdyby chiński rząd zdecydował się na coś takiego?”.

Oszustwa z użyciem deepfake’ów wychodzą już daleko poza politykę. W USA, Europie i Azji coraz częściej atakowane są korporacje. Scenariusz bywa prosty: fałszywy dyrektor firmy prosi pracownika o przesłanie hasła lub numerów kont. Brzmi absurdalnie? A jednak działa. „Nawet ludzie, którzy dobrze się znają, potrafią dać się nabrać” — ostrzega była wicedyrektorka CIA Jennifer Ewbank.

Niektóre deepfake’i są używane do zdobywania pracy. Dosłownie. Oszuści potrafią przejść rozmowę rekrutacyjną, a potem wykonywać obowiązki — wszystko pod fałszywą tożsamością. W ten sposób mogą uzyskać dostęp do systemów firmowych, zainstalować złośliwe oprogramowanie lub po prostu zarobić. Według amerykańskich służb, tysiące informatyków z Korei Północnej używają skradzionych danych, by zdobywać pracę w zachodnich firmach. Uzyskane w ten sposób pieniądze i dane są przekazywane reżimowi Kim Dzong Una.

Eksperci przewidują, że w ciągu kilku lat nawet co czwarte zgłoszenie o pracę będzie fałszywe. „Nie chodzi już o hakowanie systemów, ale o podważanie zaufania” - mówi Brian Long z firmy Adaptive Security.

Sztuczna inteligencja do walki z AI

Naukowcy, eksperci ds. polityki publicznej i firmy technologiczne badają obecnie najlepsze sposoby radzenia sobie z wyzwaniami gospodarczymi, politycznymi i społecznymi, jakie niesie ze sobą rozwój sztucznej inteligencji.

Rozwiązaniem mogą być nowe przepisy, które zmuszą firmy technologiczne do oznaczania lub usuwania fałszywych materiałów. Potrzebne są też surowsze kary dla osób świadomie posługujących się deepfake’ami — choć, jak przyznają śledczy, wykrycie takich sprawców to osobna historia.

Nie mniej istotna jest edukacja cyfrowa. Uczenie ludzi, jak rozpoznawać fałszywe materiały, może znacząco ograniczyć skuteczność takich ataków. Ale najsilniejszą bronią mogą się okazać narzędzia oparte na… tej samej technologii, która tworzy problem.

Na przykład firma Pindrop opracowała system, który analizuje miliony parametrów głosu, by wykryć, czy ktoś korzysta z oprogramowania do klonowania dźwięku. Można go używać podczas rozmów rekrutacyjnych czy wideokonferencji.

W przyszłości takie rozwiązania mogą stać się powszechne, działając w tle - np. podczas spotkań online czy rozmów wideo - by na bieżąco wykrywać próby podszywania się pod inne osoby.

Vijay Balasubramaniyan, szef Pindrop, porównuje obecną sytuację do początków internetu, kiedy spam zagrażał funkcjonowaniu poczty elektronicznej. „Ludzie mogą uznać, że jesteśmy bezradni wobec dezinformacji” — mówi. „Ale to nieprawda. Nie poddamy się”.

Im bardziej realistyczne będą stawać się obrazy i dźwięki tworzone przez AI, tym trudniej będzie się bronić. Nadzieja w tym, że technologia - choć bywa groźna - potrafi też sama siebie powstrzymać.

----- Reklama -----

OBAMACARE 3 - 0901

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor