16 marca 2023

Udostępnij znajomym:

Najnowsza technologia AI otrzymała znaczącą aktualizację. Wprowadzono GPT-4 OpenAI, który jest teraz dostępny w wersji premium chatbota ChatGPT.

OpenAI stwierdziło, że GPT-4 ma wykonywać lepszą pracę, unikając problemów ze sztuczną inteligencją widocznych w starszym GPT-3.5. Może tworzyć znacznie dłuższe ciągi tekstu i reagować, gdy ludzie wysyłają mu zdjęcia. Na przykład GPT-4 zdobył wynik, który osiąga zaledwie 10% osób w testach adwokackich, które przyszli prawnicy muszą przejść, aby praktykować prawo.

Generative Pretrained Transformer, czyli GPT, odnosi się do faktu, że wykorzystuje opracowaną przez Google technologię sztucznej inteligencji transformatora i może samodzielnie tworzyć tekst – do 25 000 słów za pomocą GPT-4. Duży model językowy (LLM) to rodzaj sztucznej inteligencji, która uczy się rozpoznawać wzorce i naśladować style dzięki wykorzystaniu ogromnych ilości danych internetowych.

GPT jest udostępniany programistom przez OpenAI od wielu lat, ale ChatGPT, który został uruchomiony w listopadzie, zapewnia prosty interfejs, z którego mogą korzystać ludzie z całego świata. Doprowadziło to do wzrostu ciekawości, eksploracji i obaw związanych z zagrożeniami wynikającymi z tej technologii. Wszystko, od komponowania wierszy i dostarczania podstawowych informacji, po tworzenie kodu komputerowego i odpowiadanie na pytania testowe.

Niemniej jednak, gdy jest duże zapotrzebowanie, ChatGPT może nie działać poprawnie. OpenAI zaczęło sprzedawać ChatGPT Plus w styczniu za 20 dolarów miesięcznie z gwarantowaną dostępnością i podstawą GPT-4. Aby uzyskać własny dostęp do GPT-4, programiści mogą umieścić swoje nazwiska na liście oczekujących.

Jedną z ważnych zmian jest lepsza wydajność w unikaniu problemów ze sztuczną inteligencją, takich jak „halucynacje”, które są fałszywymi odpowiedziami, często udzielanymi z takim samym pozornym autorytetem jak prawdziwe. Jednak GPT-4 jest bardziej biegły w opieraniu się próbom zmuszenia go do przekazywania błędnych informacji: „GPT-4 uzyskuje wyniki o 40% wyższe niż nasz obecny GPT-3.5 w naszych wewnętrznych ocenach rzetelności kontradyktoryjności”, według OpenAI. Aby uzyskać odpowiedni rodzaj odpowiedzi, użytkownicy dużych modeli językowych muszą obecnie często angażować się w wyrafinowaną „inżynierię podpowiedzi”, ucząc się, jak włączać określone wskazówki do swoich podpowiedzi. GPT-4 wprowadza opcję polecenia systemowego, która umożliwia użytkownikom wybór określonego tonu lub stylu, takiego jak instruktor sokratejski lub kod programowania: „Jesteś nauczycielem, który zawsze odpowiada w sposób sokratejski. Nigdy nie dostarczaj uczniowi rozwiązania; zamiast tego zawsze staraj się zadać idealne pytanie, aby zachęcić do niezależnego myślenia”.

OpenAI dostrzega poważne wady GPT-4, które wciąż istnieją, ale także świętuje postępy poczynione w ich unikaniu. Ogromne modele językowe są w stanie dawać zdumiewające rezultaty, sprawiając wrażenie, że rozumieją szeroki zakres tematów i mówią naturalnie brzmiącym, choć raczej sztywnym sposobem. Tak więc w istocie AI LLM są całkowitymi ignorantami. Mogą po prostu łączyć słowa w bardzo precyzyjny statystyczny sposób.

Naukowcy, w tym byli badacze Google AI, Emily Bender i Timnit Gebru, ostrzegali przed „niebezpieczeństwami stochastycznych papug”, które wiążą się z ogromnymi modelami językowymi w wyniku tego statystycznego, ale ostatecznie raczej pustego podejścia do wiedzy. Badacze i inne osoby korzystające z tych modeli często „mylą wzrost wydajności z prawdziwym rozumieniem języka naturalnego”, ponieważ sztuczna inteligencja modelu językowego często zawiera uprzedzenia i negatywne nastroje występujące w danych szkoleniowych.

Problemem jest wykorzystywanie sztucznej inteligencji przez uczniów do oszukiwania, na przykład podczas wypełniania zadań esejowych. Chociaż niektóre szkoły aktywnie wykorzystują LLM jako narzędzie, podobne do wyszukiwarek i Wikipedii, wiąże się to z pewnym niebezpieczeństwem. Opracowując własne algorytmy wykrywania, firmy wykrywające plagiaty dostosowują się do sztucznej inteligencji. Jedna z tych firm, Crossplag, poinformowała w środę, że po zbadaniu 50 dokumentów wyprodukowanych przez GPT-4 „nasz wskaźnik dokładności wyniósł ponad 98,5%.

Kiedy Microsoft ujawnił w lutym, że wykorzystuje technologię GPT w swojej wyszukiwarce Bing, która zawiera funkcję czatu podobną do ChatGPT, OpenAI uzyskało znaczny wzrost popularności. Google stoi w obliczu poważnego zagrożenia wyszukiwania ze strony OpenAI i Microsoftu współpracujących ze sobą, ale Google ma również własne technologie modelowania języka, w tym chatbota nazwanego Bard, którego obecnie testuje w tajemnicy. Z wypowiedzi Google wynika, że rozpocznie testy na małą skalę własnych technologii sztucznej inteligencji (AI), aby ulepszyć tworzenie wiadomości e-mail w Gmailu i dokumentów tekstowych Dokumentów Google. Według Google możesz dalej edytować i udoskonalać tekst ze swoim współpracującym partnerem AI, dodając nowe pomysły w razie potrzeby.

Platforma Microsoft Azure do przetwarzania w chmurze, która ma połączone ze sobą dziesiątki tysięcy procesorów graficznych Nvidia A100, została wykorzystana przez OpenAI do szkolenia GPT. Najnowsze procesory Nvidii H100, które mają wyspecjalizowane obwody przyspieszające obliczenia transformatora AI, są teraz dostępne dla platformy Azure.

Adrian Pluta
E-mail: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.

----- Reklama -----

MCGrath Evanston Subaru

----- Reklama -----

MCGrath Evanston Subaru

----- Reklama -----

KD MARKET 2024

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor