Anthropic wie o czym piszesz! Jak to wyłączyć i chronić swoją prywatność?

Technologie
603V
AI
Łukasz Musialik | Dzisiaj, 12:45

Anthropic ogłosiło, że zaczyna trenować swoje modele AI na danych użytkowników, w tym czatach i sesjach kodowania.

Użytkownicy muszą więc podjąć ważną decyzję do 28 września – akceptacja oznacza zgodę na przechowywanie danych nawet przez 5 lat.

Dalsza część tekstu pod wideo

Zmiany dotyczą wszystkich konsumenckich planów Claude, ale nie obejmują wersji komercyjnych czy osób korzystających z API. Nowi użytkownicy wybiorą preferencje przy rejestracji, a obecni zobaczą pop-up z opcją do wyboru, lecz po 28 września komunikat nie będzie już wyświetlany.

Dane będą wykorzystywane tylko z nowych lub wznowionych czatów i sesji. Domyślnie trenowanie na czatach użytkownika będzie włączone, co może doprowadzić do nieświadomej zgody.

Anthropic podkreśla, że nie sprzedaje danych osobom trzecim i stosuje narzędzia filtrujące wrażliwe informacje. Użytkownicy mogą zmienić decyzję w ustawieniach prywatności w dowolnym momencie.

Źródło: theverge.com

Komentarze (5)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper