Setki milionów osób na całym świecie korzystają dziś z chatbotów, szukając odpowiedzi na codzienne pytania. Naturalnym krokiem było więc pojawienie się narzędzi zaprojektowanych specjalnie do udzielania porad zdrowotnych. W styczniu firma OpenAI zaprezentowała ChatGPT Health – wersję swojego chatbota, która ma analizować dokumentację medyczną użytkownika, dane z aplikacji zdrowotnych i urządzeń typu smartwatch, by odpowiadać na pytania dotyczące zdrowia. Na razie obowiązuje lista oczekujących. Anthropic, konkurencyjna firma zajmująca się sztuczną inteligencją, oferuje podobne funkcje niektórym użytkownikom swojego chatbota Claude.
Obie firmy podkreślają, że ich modele językowe nie zastępują profesjonalnej opieki medycznej i nie powinny służyć do stawiania diagnozy. Mogą natomiast pomóc w zrozumieniu wyników badań, przygotowaniu się do wizyty u lekarza czy wychwyceniu trendów zdrowotnych ukrytych w dokumentacji i danych z aplikacji.
Entuzjazm wokół nowych narzędzi rośnie, ale eksperci zalecają ostrożność.
Więcej kontekstu niż w wyszukiwarce
Lekarze i badacze, którzy testowali nowe rozwiązania, przyznają, że chatbot analizujący historię medyczną może być bardziej użyteczny niż zwykłe wyszukiwanie w Google. O ile użytkownik udostępni dane o swoim wieku, przyjmowanych lekach czy wcześniejszych diagnozach, odpowiedź może być bardziej dopasowana do konkretnej sytuacji.
Dr Robert Wachter z University of California, San Francisco zwraca uwagę, że alternatywą często bywa całkowity brak informacji lub samodzielne, niepewne interpretowanie objawów. Jego zdaniem przy odpowiedzialnym korzystaniu takie narzędzia mogą dostarczyć wartościowych wskazówek.
Jednocześnie nawet najlepsze modele nie są nieomylne. Zdarza im się podawać nieprawdziwe informacje albo mieszać poprawne dane z błędnymi. Dlatego im więcej precyzyjnych informacji otrzymają, tym większa szansa na sensowną odpowiedź — ale to wciąż nie gwarantuje trafności.
Są sytuacje, gdy AI to za mało
Eksperci podkreślają, że przy niepokojących objawach nie należy zaczynać od rozmowy z chatbotem. Duszność, silny ból w klatce piersiowej czy nagły, bardzo intensywny ból głowy mogą oznaczać stan zagrożenia życia i wymagają natychmiastowej pomocy medycznej.
Również w mniej pilnych przypadkach warto zachować zdrowy dystans. Dr Lloyd Minor ze Stanford University zaznacza, że w sprawach poważnych decyzji zdrowotnych nie powinno się polegać wyłącznie na odpowiedzi wygenerowanej przez model językowy. Chatbot może być wsparciem, ale nie zastąpi konsultacji z lekarzem.
Kwestia prywatności: inne zasady niż w gabinecie
Największą korzyścią z używania chatbotów zdrowotnych jest możliwość analizy indywidualnych danych medycznych. To jednak rodzi pytania o prywatność. W Stanach Zjednoczonych dokumentacja medyczna jest chroniona przez prawo federalne znane jako HIPAA, które przewiduje surowe kary dla szpitali, lekarzy czy ubezpieczycieli za nieuprawnione ujawnienie danych.
Problem w tym, że te przepisy nie obejmują firm projektujących chatboty. Udostępnienie dokumentacji AI to coś zupełnie innego niż przekazanie jej nowemu lekarzowi. Standardy ochrony danych są odmienne, a użytkownik powinien mieć tego świadomość.
Firmy zapewniają, że dane zdrowotne są oddzielone od innych informacji, objęte dodatkowymi zabezpieczeniami i nie są wykorzystywane do trenowania modeli. Użytkownik musi wyrazić zgodę na ich udostępnienie i może ją w każdej chwili wycofać. Mimo to decyzja o przesłaniu dokumentacji medycznej powinna być przemyślana.
Testy pokazują ograniczenia
Niezależne badania nad skutecznością chatbotów medycznych dopiero się rozwijają. W testach polegających na analizie szczegółowo opisanych przypadków klinicznych systemy potrafiły poprawnie wskazać chorobę w około 95 procentach sytuacji. Problem pojawiał się jednak w realnej interakcji z użytkownikami.
Badanie z udziałem 1300 osób przeprowadzone przez naukowców z Oksfordu wykazało, że osoby korzystające z chatbotów przy analizie hipotetycznych problemów zdrowotnych nie podejmowały lepszych decyzji niż te, które opierały się na wyszukiwarce internetowej lub własnej intuicji. Często użytkownicy nie przekazywali wszystkich istotnych informacji, a odpowiedzi AI zawierały mieszankę trafnych i mylących wskazówek, które trudno było odróżnić.
Co ważne, badanie nie obejmowało najnowszych wersji narzędzi, takich jak ChatGPT Health, więc możliwości technologii mogą się zmieniać.
Druga opinia – także od AI
Jednym ze sposobów zwiększenia pewności co do uzyskanych informacji może być porównanie odpowiedzi z kilku systemów, podobnie jak w przypadku konsultacji u dwóch lekarzy. Część ekspertów przyznaje, że czasem sprawdza tę samą kwestię w różnych narzędziach i większe zaufanie budzi zgodność odpowiedzi.
W dłuższej perspektywie rozwój chatbotów będzie prawdopodobnie zmierzał w stronę bardziej „lekarskiej” rozmowy – z większą liczbą pytań doprecyzowujących i lepszym wychwytywaniem istotnych szczegółów. Na dziś jednak najrozsądniejsze podejście wydaje się proste: traktować AI jako pomoc w zrozumieniu informacji, a nie jako ostateczne źródło decyzji dotyczących zdrowia.