Sztuczna inteligencja przestaje być jedynie narzędziem do wyszukiwania informacji. Coraz częściej zaczyna wpływać na sposób myślenia użytkowników - i robi to w sposób, który nie zawsze jest oczywisty. Najnowsze badanie pokazuje, że aż 58 procent Amerykanów przyznaje, iż odpowiedzi generowane przez AI przynajmniej od czasu do czasu zmieniły ich opinię. To sygnał, że chatboty i tzw. wyszukiwarki odpowiedzi stają się nowym, coraz bardziej wpływowym uczestnikiem procesu kształtowania poglądów.
Dane pochodzą z badania Shift Browser przeprowadzonego w 2026 roku na reprezentatywnej grupie ponad 1400 osób. Wyniki pokazują wyraźną zmianę roli sztucznej inteligencji. Narzędzia, które miały jedynie zbierać i porządkować informacje, zaczynają pełnić funkcję „cichego doradcy”. W przeciwieństwie do tradycyjnych wyszukiwarek, które prezentują listę linków i pozostawiają użytkownikowi ocenę źródeł, AI podaje gotowe odpowiedzi - często pewnym, kategorycznym tonem.
Szczególnie wyraźnie widać to wśród osób korzystających z AI na co dzień - stanowią one około 32 procent badanych. Dla nich kontakt z tego typu odpowiedziami jest stały. Co jednak istotne, nawet osoby sięgające po nią sporadycznie zauważają, że z czasem zmienia ona sposób ich myślenia. To proces stopniowy, który kumuluje się wraz z kolejnymi interakcjami.
Zaufanie bez weryfikacji
Pojawia się przy tym wyraźna sprzeczność między zaufaniem a faktycznym korzystaniem z AI. Tylko 16 procent respondentów deklaruje, że darzy te narzędzia dużym zaufaniem, ale aż 60 procent ufa im przynajmniej w pewnym stopniu. W praktyce oznacza to, że użytkownicy korzystają z odpowiedzi generowanych przez sztuczną inteligencję nawet wtedy, gdy mają świadomość jej ograniczeń. To mechanizm dobrze znany z mediów społecznościowych - użytkownicy wiedzą o ich wadach, a mimo to nadal z nich korzystają.
Jednym z głównych powodów takiego podejścia jest wygoda. Szybka, przystępna odpowiedź często wygrywa z potrzebą sprawdzenia informacji w kilku źródłach. Choć 36 procent badanych wskazuje dokładność jako jedno z największych wyzwań, wielu użytkowników i tak rezygnuje z weryfikacji. W efekcie liczy się przede wszystkim dostępność informacji, niekoniecznie jej rzetelność.
Problem pogłębia brak zrozumienia, jak działają systemy AI. Aż 32 procent respondentów przyznaje, że nie wie, w jaki sposób powstają generowane odpowiedzi. Bez tej wiedzy trudno ocenić, czy dana informacja opiera się na wiarygodnych źródłach, czy jest jedynie przekonującą, ale nie do końca prawdziwą konstrukcją. Tymczasem sztuczna inteligencja komunikuje się w sposób stanowczy - rzadko sygnalizuje niepewność, nie zawsze pokazuje różne punkty widzenia.
Z jednej strony użytkownicy doceniają wygodę - 53 procent badanych uważa, że AI poprawia ich doświadczenie w Internecie. Z drugiej jednak, satysfakcja z korzystania nie oznacza, że przekazywane informacje są kompletne lub dokładne. Wiele osób nawet nie zauważa, jak duży wpływ mają takie odpowiedzi na ich decyzje - od wyborów konsumenckich, przez kwestie zdrowotne, aż po poglądy polityczne.
Nasilają się obawy dotyczące prywatności i przejrzystości
Obawy użytkowników nie ograniczają się jednak wyłącznie do jakości informacji. Aż 81 procent respondentów martwi się o prywatność, w tym o dostęp AI do danych osobowych i prywatnych rozmów. To najczęściej wskazywany problem. Kolejne miejsca zajmują dokładność i przejrzystość działania systemów. Brak transparentności - wskazywany przez 32 procent badanych - bezpośrednio wpływa na możliwość oceny wiarygodności odpowiedzi.
Ludzie obawiają się zarówno tego, co sztuczna inteligencja o nich wie, jak i tego, co im mówi.
Coraz więcej osób obawia się także, że AI może podejmować działania bez ich wiedzy. Dotyczy to nie tylko automatyzacji zadań, ale również subtelnego wpływania na sposób interpretowania informacji. W praktyce oznacza to, że użytkownik może zostać „nakierowany” na określony sposób myślenia, nawet nie zdając sobie z tego sprawy.
Z badania wynika również wyraźny podział pokoleniowy. Najczęściej z AI korzystają osoby w wieku 25–34 lata oraz aktywni zawodowo użytkownicy, którzy wykorzystują ją głównie do researchu, podsumowywania treści i automatyzacji zadań. Z kolei osoby powyżej 65. roku życia najrzadziej sięgają po tego typu narzędzia - jedna piąta z nich nie korzysta z AI w ogóle. Może to oznaczać mniejszą podatność na jej wpływ, ale jednocześnie mniejszą świadomość tego zjawiska.
Rosnące znaczenie sztucznej inteligencji znajduje odzwierciedlenie w oczekiwaniach społecznych wobec regulacji. Aż 79 procent respondentów opowiada się za wprowadzeniem nadzoru nad tego typu technologiami, a ponad jedna trzecia oczekuje zdecydowanych działań. Coraz częściej pojawiają się też pytania o wpływ AI na środowisko — ponad połowa badanych zwraca uwagę na wysokie zużycie energii przez te systemy.
Jednocześnie użytkownicy chcą większej kontroli nad tym, jak działa sztuczna inteligencja. Ponad połowa uznaje możliwość dostosowania lub ograniczenia jej funkcji za istotną, a co czwarta osoba przyznaje, że ma trudności z zarządzaniem tymi ustawieniami.
Wszystko to prowadzi do istotnej zmiany w sposobie, w jaki korzystamy z informacji. Sztuczna inteligencja zaczyna pełnić rolę swoistego „strażnika wiedzy”. W przeciwieństwie do wyszukiwarek, które oferują wybór, AI dostarcza gotowe wnioski. To przesuwa ciężar z aktywnej analizy na bierne przyjmowanie treści.
Co ważne, wpływ AI może być większy, niż deklarują sami użytkownicy. Wiele procesów zachodzi poza ich świadomością - poprzez sposób formułowania odpowiedzi, dobór informacji czy pomijanie alternatywnych perspektyw. W efekcie sztuczna inteligencja nie tylko odpowiada na pytania, ale coraz częściej współtworzy nasze przekonania.
W miarę jak te narzędzia będą się rozwijać i stawać coraz powszechniejsze, znaczenie tego zjawiska będzie rosło. Kluczowe pozostaje pytanie, czy uda się stworzyć systemy, które będą wspierać użytkowników w podejmowaniu decyzji, nie wpływając przy tym nadmiernie na ich sposób myślenia.