Anthropic wie o czym piszesz! Jak to wyłączyć i chronić swoją prywatność?

Anthropic ogłosiło, że zaczyna trenować swoje modele AI na danych użytkowników, w tym czatach i sesjach kodowania.
Użytkownicy muszą więc podjąć ważną decyzję do 28 września – akceptacja oznacza zgodę na przechowywanie danych nawet przez 5 lat.




Zmiany dotyczą wszystkich konsumenckich planów Claude, ale nie obejmują wersji komercyjnych czy osób korzystających z API. Nowi użytkownicy wybiorą preferencje przy rejestracji, a obecni zobaczą pop-up z opcją do wyboru, lecz po 28 września komunikat nie będzie już wyświetlany.
Dane będą wykorzystywane tylko z nowych lub wznowionych czatów i sesji. Domyślnie trenowanie na czatach użytkownika będzie włączone, co może doprowadzić do nieświadomej zgody.
Anthropic podkreśla, że nie sprzedaje danych osobom trzecim i stosuje narzędzia filtrujące wrażliwe informacje. Użytkownicy mogą zmienić decyzję w ustawieniach prywatności w dowolnym momencie.