----- Reklama -----

Ogłoszenia, felietony, informacje Polonijne - Tygodnik Monitor

30 lipca 2025

Udostępnij znajomym:

Posłuchaj wersji audio:

00:00
00:00
Download

Prezes OpenAI ostrzega: rozmowy z chatbotem nie są prawnie chronione i mogą stać się dowodem w procesach sądowych.

Sam Altman, dyrektor generalny OpenAI - firmy będącej twórcą ChatGPT, wydał poważne ostrzeżenie dla wszystkich użytkowników tego chatbota korzystających z niego do rozmów o sprawach osobistych czy jako formy terapii. Podczas wystąpienia w podcaście "This Past Weekend" Theo Vona, Altman przyznał wprost, że rozmowy użytkowników nie są prawnie chronione i mogą zostać przedstawione jako dowód w sądzie.

"To bardzo pokręcone"

"Jeśli rozmawiasz z ChatGPT o swoich najbardziej wrażliwych sprawach, a potem dochodzi do procesu sądowego, możemy zostać zobowiązani do udostępnienia tych rozmów. Uważam, że to bardzo pokręcone" - powiedział Altman, odpowiadając na pytanie o ramy prawne sztucznej inteligencji.

Sytuację dodatkowo komplikuje trwający proces sądowy wytoczony przez "The New York Times", który zobowiązuje OpenAI do przechowywania wszystkich rozmów użytkowników, nawet tych usuniętych. Decyzja sądu z lipca 2025 roku podtrzymała nakaz zachowania wszystkich danych czatów, co oznacza, że nawet gdy użytkownik próbuje usunąć swoje rozmowy, pozostają one na serwerach firmy.

Brak ochrony prawnej jak u lekarzy czy prawników

Altman porównał rozmowy z ChatGPT do konsultacji z lekarzami, prawnikami czy terapeutami, które cieszą się ochroną prawną. "Gdy rozmawiasz z terapeutą, prawnikiem czy lekarzem o tych problemach, istnieje przywilej prawny. Jest tajemnica lekarska, prawnicza. A my jeszcze tego nie rozwiązaliśmy w przypadku rozmów z ChatGPT" - wyjaśnił prezes OpenAI.

Jego zdaniem chatboty AI powinny otrzymać takie same przywileje prawne jak tradycyjne formy poradnictwa. "Myślę, że powinniśmy mieć tę samą koncepcję prywatności dla rozmów z AI, jaką mamy z terapeutą" - dodał Altman.

Co zbiera ChatGPT?

Program gromadzi przede wszystkim historię rozmów - wszystko co użytkownik wpisuje w okno tekstowe. Jeśli podasz swój adres, przekonania religijne czy imię matki, informacje te są zbierane i przechowywane. Przesyłane pliki, jak CV zawierające dane osobowe, również trafiają do bazy danych.

OpenAI zbiera także adres email przy tworzeniu konta, adres IP, informacje o urządzeniu, dane z komputerowych ciasteczek oraz lokalizację użytkownika. Firma wykorzystuje te dane głównie do dalszego trenowania modeli GPT, co ma poprawić ich dokładność i użyteczność.

Jak chronić swoją prywatność?

Eksperci radzą przede wszystkim ograniczenie udostępnianych informacji. Nie podawaj ChatGPT więcej danych niż konieczne - unikaj prawdziwych imion znajomych, informacji zdrowotnych czy dokumentów zawierających PESEL lub dane kontaktowe.

Obecnie możliwości usunięcia danych są ograniczone z powodu trwającego procesu sądowego. Jedynym sposobem na całkowite usunięcie danych jest skasowanie całego konta, co jednak permanentnie blokuje możliwość korzystania z ChatGPT.

OpenAI oferuje opcję rezygnacji z wykorzystywania przyszłych danych do trenowania modeli, jednak nie można usunąć informacji już wykorzystanych w poprzednich szkoleniach.

Altman przyznał, że użytkownicy mają prawo domagać się "jasności prawnej" przed intensywnym korzystaniem z ChatGPT, szczególnie w kontekście wrażliwych rozmów.

Problem dotyczy wszystkich chatbotów AI

Ostrzeżenie Altmana, choć dotyczyło bezpośrednio ChatGPT, ma zastosowanie do wszystkich dostępnych na rynku programów sztucznej inteligencji. Ani Claude firmy Anthropic, ani Gemini Google'a, ani Microsoft Copilot nie oferują ochrony prawnej podobnej do tej, jaką cieszą się rozmowy z lekarzami czy prawnikami. Różnice między platformami dotyczą głównie sposobu zbierania i przechowywania danych - na przykład Claude domyślnie nie wykorzystuje rozmów użytkowników do trenowania bez zgody, podczas gdy Gemini przechowuje aktywność przez 18 miesięcy. Jednak niezależnie od polityki prywatności, wszystkie firmy mogą zostać zmuszone przez sąd do udostępnienia danych użytkowników w ramach postępowań prawnych.

Brak jednolitych regulacji prawnych sprawia, że każda rozmowa z chatbotem AI może potencjalnie stać się dowodem sądowym we wszystkich rodzajach postępowań - od spraw kryminalnych, przez cywilne i rozwodowe, aż po podatkowe czy związane z własnością intelektualną. Szczególne ryzyko niosą rozmowy zawierające przyznania się do przewinień, plany działań mogących być nielegalne, szczegóły osobiste wykorzystywane w sprawach rodzinnych, informacje finansowe czy dane medyczne. Użytkownicy powinni pamiętać, że nawet pozornie niewinne pytania mogą w kontekście prawnym okazać się kompromitujące.

----- Reklama -----

BAUMERT LAW

----- Reklama -----

Zobacz nowy numer Gazety Monitor
Zobacz nowy numer Gazety Monitor