----- Reklama -----

LECH WALESA

08 lipca 2025

Udostępnij znajomym:

Trwa pobieranie wersji audio...

Niby wszystko wygląda jak zawsze: sesje, zaliczenia, eseje, dyskusje na zajęciach. Ale pod tą pozorną normalnością wrze rewolucja, która może zmienić sens istnienia wyższego wykształcenia. Sztuczna inteligencja, dostępna na wyciągnięcie ręki, coraz częściej nie tylko pomaga studentom w nauce, lecz całkowicie ich wyręcza.

ChatGPT, Claude, Gemini — to nie tylko nowoczesne narzędzia, z których powszechnie korzystają miliony firm i osób. Dla studentów to darmowi ghostwriterzy, wykonujący ich pracę. Zamiast samodzielnie pisać eseje czy prace zaliczeniowe, wystarczy wkleić temat i poprosić o gotowy tekst. Niektórzy kopiują go bezrefleksyjnie, inni edytują kilkanaście procent, by zatuszować ślady. Praca przechodzi wtedy przez wykrywacze AI, a wykładowca ma związane ręce.

„Wchodząc do biblioteki, zobaczyłam, że połowa studentów korzysta z ChatGPT. Wtedy zrozumiałam, że coś jest nie tak” — mówi studentka Uniwersytetu Wisconsin cytowana w reportażu Jamesa Walsha dla New York Magazine. Jej opowieść jest symptomatyczna: zajęcia stają się puste, pozbawione prawdziwej wymiany myśli, bo część studentów cytuje źródła, których nawet nie zna.

Bezradni wykładowcy i konie trojańskie

Z rozmów z profesorami wyłania się jeden dominujący ton: bezradność. Nawet jeśli ktoś ma podejrzenia, że praca powstała przy pomocy AI, bardzo trudno to udowodnić. Detektory tekstów AI bywają zawodne, a oskarżenie o oszustwo może się skończyć skargą, batalią administracyjną, a czasem i prawną.

Niektórzy wykładowcy próbują się bronić — np. wprowadzając do poleceń egzaminacyjnych dziwne, niezwiązane z tematem słowa, jak „brokuły” czy „Dua Lipa”. Metodę tę nazywają „koniem trojańskim”. Gdy słowa te pojawią się w pracy, łatwo domyślić się, że tekst wygenerowała maszyna, która bezmyślnie przeczytała całą instrukcję i nawiązała do polecenia w treści, nawet jeśli nie miało to większego sensu. Ale to walka z wiatrakami.

„Mam wrażenie, że jestem osamotniony w tej walce” — przyznaje wykładowca z Iowa. „Administratorzy każą po prostu oceniać taką pracę jak każdą inną. System udaje, że problem nie istnieje”.

Uczelnie udają, że nie widzą

Dlaczego uczelnie nie reagują? Odpowiedź może być brutalnie prosta: dopóki czesne wpływa na konto, jakość edukacji nie ma aż takiego znaczenia. Podczas pandemii instytucje potrafiły w kilka tygodni przestawić cały model kształcenia. W przypadku AI nie widać podobnej determinacji. Zmiany są powolne, a czasem nawet celowo wstrzymywane.

Niektóre uniwersytety otwarcie współpracują z firmami technologicznymi, oferując narzędzia AI wykładowcom do pisania podręczników, przygotowywania zajęć, a nawet oceniania prac. To rodzi groteskowe sytuacje, w których sztuczna inteligencja ocenia... samą siebie.

Klikanie zamiast myślenia

Sam Altman, prezes OpenAI, nazwał ChatGPT „kalkulatorem do słów”. Ale czy naprawdę chcemy, by myślenie sprowadzało się do wciskania klawiszy? Wielu profesorów obawia się, że zamiast uczyć się krytycznego myślenia, studenci uczą się tylko obsługi interfejsu. Jeśli cały proces edukacyjny zamieni się w interakcję z algorytmem, po co w ogóle studiować?

Co gorsza, AI nie tylko ułatwia plagiaty — zmienia też definicję samego oszustwa. Dla części studentów korzystanie z takich narzędzi to nie nieetyczne zachowanie, ale... życiowa konieczność. „Skoro inni używają AI, ja też muszę, żeby nie zostać w tyle” — mówią.

Powrót do tablicy?

Na fali kryzysu niektóre uczelnie — głównie za granicą — zaczynają szukać radykalnych rozwiązań. Jednym z nich jest powrót do egzaminów ustnych przy tablicy lub na żywo, bez dostępu do sieci. Takie egzaminy trudniej sfałszować, a jednocześnie zmuszają studentów do samodzielnego myślenia i reagowania w czasie rzeczywistym.

W Stanach Zjednoczonych i w Kanadzie pojawiają się też głosy za reformą systemu oceniania: więcej prac grupowych, projektów praktycznych i dyskusji, mniej klasycznych esejów. Ale każda zmiana wymaga czasu, zasobów i przede wszystkim — odwagi, by przyznać, że obecny model nie działa.

A może to tylko niepotrzebna panika?

Czy to, co dziś obserwujemy, to tylko kolejna fala paniki przed nowym wynalazkiem? Przeciwnicy alarmistów przypominają, że kiedyś obawiano się książek, potem kalkulatorów, a teraz AI. Ale większość ekspertów zgadza się, że tym razem skala jest inna — bo AI nie tylko wspomaga, lecz może całkowicie zastąpić użytkownika.

Jeśli odpuścimy — ostrzegają — przyszłość edukacji może przypominać dystopię: mniej myślenia, mniej rozumienia, więcej „produkowania” treści dla algorytmów i oceniania przez inne algorytmy. A to już nie tylko problem uniwersytetów, ale całego społeczeństwa.

----- Reklama -----

OBAMACARE 3 - 0901

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor