Naukowcy to z natury sceptyczna grupa – to wpisane w zawód. Ale jeśli chodzi o sztuczną inteligencję, badacze coraz bardziej nie dowierzają możliwościom tej technologii. Wstępny raport pokazuje, że ich zaufanie do oprogramowania AI drastycznie spadło w ciągu ostatniego roku i to we wszystkich kategoriach.
Wydawnictwo naukowe Wiley opublikowało wstępne wyniki swojego raportu z 2025 roku dotyczącego wpływu technologii na badania naukowe. Najbardziej zaskakujące odkrycie? Naukowcy wyrażają obecnie mniejsze zaufanie do AI niż rok temu, kiedy technologia była znacznie mniej zaawansowana.
Na przykład w badaniu z 2024 roku 51 procent ankietowanych naukowców obawiało się potencjalnych "halucynacji" – powszechnego problemu, w którym duże modele językowe (LLM - Large Language Model) prezentują całkowicie zmyślone informacje jako fakty. W 2025 roku ten odsetek wzrósł aż do 64 procent, mimo że wykorzystanie AI wśród badaczy skoczyło z 45 do 62 procent.
Niepokój związany z bezpieczeństwem i prywatnością wzrósł o 11 procent w porównaniu z ubiegłym rokiem, a obawy dotyczące etyki AI i przejrzystości również poszły w górę.
Ponadto nastąpił ogromny spadek entuzjazmu w porównaniu z ubiegłym rokiem, gdy głośne startupy zajmujące się AI zdominowały nagłówki gazet. W 2024 roku ankietowani naukowcy uważali, że AI już przewyższa ludzkie zdolności w ponad połowie zastosowań. W 2025 roku ta wiara drastycznie spadła – do mniej niż jednej trzeciej przypadków.
Im mniejsza wiedza, tym większy zachwyt nad AI
Te odkrycia potwierdzają wcześniejsze badania, które wykazały, że im więcej ludzie dowiadują się o tym, jak działa AI, tym mniej jej ufają. Prawdziwe było też odwrotne zjawisko – największymi fanami AI byli zazwyczaj ci, którzy najmniej rozumieli tę technologię.
Choć potrzeba więcej badań, aby pokazać, jak powszechne jest to zjawisko, nietrudno zgadnąć, dlaczego specjaliści zaczynają mieć wątpliwości co do swoich algorytmicznych asystentów.
Te „halucynacje” to poważny problem. Już spowodowały wielkie zamieszanie w sądach, praktyce medycznej, a nawet w branży turystycznej. To również nie jest łatwa do rozwiązania kwestia – w maju testy wykazały, że modele AI „zmyślały” częściej, mimo że technicznie stały się potężniejsze.
Jest też kłopotliwa sprawa AI jako narzędzia do osiągania zysku. Eksperci twierdzą, że użytkownicy zdecydowanie wolą pewne siebie LLM-y, nawet jeśli udzielają zmyślonych odpowiedzi, od tych, które przyznają się, gdy nie mogą znaleźć danych lub udzielić dokładnej odpowiedzi. Gdyby firma taka jak OpenAI miała całkowicie wyeliminować niedbałe „halucynacje”, straciłaby tłumy użytkowników.
Więc jeśli nie jesteś pewien, co sądzić o całym tym szumie wokół AI, zapytaj naukowca – jest szansa, że chętnie rozwieje twoje złudzenia.
źródło: futurism.com