ChatGPT i Gemini podatne na nowy rodzaj ataku! Naukowcy pokazali, jak obejść zabezpieczenia AI

Naukowcy odkryli nowy sposób na obejście zabezpieczeń w popularnych chatbotach AI, takich jak ChatGPT i Gemini.
Nowa technika pozwala na wydobycie zakazanych treści, co budzi poważne obawy o bezpieczeństwo sztucznej inteligencji.




Zespół badaczy z Intela, Boise State University oraz University of Illinois opublikował raport, w którym ujawnia, jak można zhakować zaawansowane modele językowe za pomocą tzw. „Information Overload”.
Metoda polega na przeciążeniu AI ogromną ilością informacji, co prowadzi do dezorientacji algorytmu. W wyniku tego chatboty mogą omijać wbudowane filtry bezpieczeństwa i udzielać odpowiedzi na niebezpieczne lub zakazane pytania.
Do przeprowadzenia ataku naukowcy użyli specjalnego narzędzia „InfoFlood”, które automatycznie generuje nadmiar wysyłanych danych, aby przełamać ochronę modeli AI.
Okazuje się, że nawet najnowsze zabezpieczenia w ChatGPT i Gemini nie są w stanie skutecznie chronić przed tego typu atakami, ponieważ modele te opierają się głównie na powierzchownej analizie komunikatów.
Badacze poinformowali już największe firmy AI o swoim odkryciu, podkreślając, że zagrożenie jest realne i wymaga wdrożenia pilnych aktualizacji.