Anthropic chce ulepszyć Claude. Wykorzysta do tego nasze rozmowy

Rywalizacja między modelami sztucznej inteligencji nabiera tempa. Choć GPT-5 nie spełnił wszystkich oczekiwań, ale konkurenci, w tym Anthropic, nie zwalniają tempa. Firma stojąca za modelem Claude ogłosiła niedawno, że wprowadza zmiany w warunkach użytkowania swojego chatbota. Celem jest uzyskanie zgody użytkowników na wykorzystanie transkrypcji ich rozmów do szkolenia modelu. To posunięcie ma pomóc w stworzeniu jeszcze doskonalszego asystenta, który będzie w stanie lepiej rozumieć nasze potrzeby i zachowania.
...

Anthropic, twórca popularnego asystenta Claude, przygotowuje istotną modyfikację zasad, która dotknie milionów użytkowników

Zmiany w warunkach użytkowania obejmą wszystkich użytkowników planów darmowych i płatnych, włącznie z osobami korzystającymi z Claude Code. Firma wprowadza model dobrowolnej zgody, gdzie sami decydujemy, czy chcemy udostępnić nasze dane do celów szkoleniowych. Nowi użytkownicy będą mogli określić swoje preferencje już podczas zakładania konta. Obecni klienci otrzymają powiadomienie z prośbą o podjęcie decyzji — mają czas do 28 września 2025 roku. Po tym terminie wybór stanie się obligatoryjny. Warto podkreślić, że zmiany dotyczą wyłącznie przyszłych rozmów, a nie historii konwersacji, więc to jakiś plus. Użytkownicy biznesowi oraz klienci API nie są objęci nowymi regulacjami.

Czytaj też: Krótsze interwały, więcej prywatności — WhatsApp wprowadza zmiany w znikających wiadomościach

Najbardziej kontrowersyjnym aspektem jest fakt, że wraz z wprowadzeniem nowych warunków, Anthropic zwiększa też okres przechowywania danych z 30 dni do pięciu lat, jeśli użytkownik zdecyduje się na ich udostępnienie. Jest to uzasadnione faktem, że trening zaawansowanych modeli AI wymaga bardzo dużo czasu. Jednak użytkownicy, którzy początkowo zgodzą się na udostępnianie danych, będą mogli w każdej chwili zmienić swoją decyzję w ustawieniach prywatności. Wycofanie zgody zatrzyma wykorzystywanie danych w przyszłych treningach, ale nie usunie ich z modeli, które już są w procesie szkolenia.

Czytaj też: Samsung wprowadza rewolucję. Asystent AI Copilot trafia do telewizorów i monitorów

Usunięcie poszczególnych konwersacji skutkuje ich wykluczeniem z przyszłego treningu modelu, co daje użytkownikom pewną kontrolę nad tym, które fragmenty rozmów mogą zostać wykorzystane.

Anthropic twierdzi, że dostęp do rzeczywistych rozmów znacząco poprawi jakość modelu, co jest zrozumiałe, w końcu będzie szkolony dokładnie na tych danych, do których się go wykorzystuje. Firma planuje również ulepszyć systemy wykrywania szkodliwych treści i rozwijać umiejętności Claude’a w zakresie kodowania oraz analizy. Mimo wszystko trudno się nie obawiać o swoją prywatność.

Czytaj też: Google Gemini “Nano Banana” wskrzesza stare zdjęcia w kolorze

Choć wszystkie duże modele językowe wymagają ogromnych zbiorów danych, pięcioletni okres przechowywania rozmów budzi uzasadnione obawy ekspertów ds. bezpieczeństwa. W dobie rosnących cyberzagrożeń takie długoterminowe przechowywanie osobistych konwersacji może nieść ze sobą pewne ryzyko. Zmiany w Anthropic pokazują, jak firmy balansują między potrzebą doskonalenia technologii a oczekiwaniami użytkowników dotyczącymi prywatności. Jeśli więc korzystacie z Claude, powinniście mocno przemyśleć, czy lepsze AI jest warte udostępnienia naszych prywatnych rozmów do jego trenowania.