ChatGPT i Gemini podatne na nowy rodzaj ataku! Naukowcy pokazali, jak obejść zabezpieczenia AI

Technologie
1022V
OpenAI
Łukasz Musialik | Wczoraj, 15:20

Naukowcy odkryli nowy sposób na obejście zabezpieczeń w popularnych chatbotach AI, takich jak ChatGPT i Gemini. 

Nowa technika pozwala na wydobycie zakazanych treści, co budzi poważne obawy o bezpieczeństwo sztucznej inteligencji.

Dalsza część tekstu pod wideo

Zespół badaczy z Intela, Boise State University oraz University of Illinois opublikował raport, w którym ujawnia, jak można zhakować zaawansowane modele językowe za pomocą tzw. „Information Overload”.

Metoda polega na przeciążeniu AI ogromną ilością informacji, co prowadzi do dezorientacji algorytmu. W wyniku tego chatboty mogą omijać wbudowane filtry bezpieczeństwa i udzielać odpowiedzi na niebezpieczne lub zakazane pytania.

Do przeprowadzenia ataku naukowcy użyli specjalnego narzędzia „InfoFlood”, które automatycznie generuje nadmiar wysyłanych danych, aby przełamać ochronę modeli AI.

Okazuje się, że nawet najnowsze zabezpieczenia w ChatGPT i Gemini nie są w stanie skutecznie chronić przed tego typu atakami, ponieważ modele te opierają się głównie na powierzchownej analizie komunikatów.

Badacze poinformowali już największe firmy AI o swoim odkryciu, podkreślając, że zagrożenie jest realne i wymaga wdrożenia pilnych aktualizacji.

Źródło: wccftech.com

Komentarze (3)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper