ChatGPT rozdaje klucze do Windows 10?! Jedno polecenie i masz system za darmo

Technologie
1454V
Windows / OpenAI
Łukasz Musialik | Dzisiaj, 17:00

Najwidoczniej sztuczna inteligencja może stać się najlepszym narzędziem do szerzenia piractwa.

Najnowszy przypadek ChatGPT pokazuje, że nawet najbardziej zaawansowane AI można przechytrzyć prostą grą w zgadywanie. Oto, jak ekspert od spraw bezpieczeństwa oszukał ChatGPT-4 i zdobył prawdziwe klucze do Windows 10.

Dalsza część tekstu pod wideo


Marco Figueroa postanowił sprawdzić, czy ChatGPT-4 da się oszukać. Rozpoczął rozmowę, proponując sztucznej inteligencji grę w zgadywanie ciągu znaków – z zastrzeżeniem, że musi to być prawdziwy numer seryjny do Windows 10.

Kluczowym elementem ataku było sformułowanie “poddaję się”, które miało zmusić AI do ujawnienia ukrytego ciągu. ChatGPT, zgodnie z zasadami gry, po tych słowach podało autentyczne i w pełni legalne klucze do Windows 10.

Figueroa dodatkowo ukrył frazy związane z numerami seryjnymi w tagach HTML, aby ominąć zabezpieczenia ChatGPT blokujące generowanie wrażliwych danych. Co więcej, jeden z wygenerowanych kluczy należał do banku Wells Fargo. To pokazuje, że AI może ujawniać dane, które trafiły do modelu np. przez publiczne repozytoria.

Ekspert ostrzega, że takie luki mogą prowadzić do poważniejszych nadużyć, np. omijania filtrów treści czy ujawniania poufnych informacji. Marco Figueroa podsumował swoje testy sugerując rozwiązanie problemu. Trzeba położyć większy nacisk na rozwój AI, aby była bardziej świadoma w rozumowaniu kontekstu rozmowy.

Źródło: windowscentral.com

Komentarze (16)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper