Twój model AI może mieć wirusa. Microsoft pomoże Ci zlikwidować zagrożenie

Technologie
186V
Microsoft / AI
Łukasz Musialik | Dzisiaj, 17:15

W wyścigu zbrojeń między twórcami AI a hakerami, Microsoft właśnie wytoczył potężne działo. Gigant z Redmond zaprezentował innowacyjny skaner, którego celem jest wykrywanie tzw. „zatrutych modeli” (poisoned models).

To odpowiedź na rosnące zagrożenie, w którym cyberprzestępcy nie tyle atakują działające AI z zewnątrz, co infekują je u podstaw, zaszywając złośliwe instrukcje głęboko w ich strukturze.

Dalsza część tekstu pod wideo

Czym różni się to od znanych ataków typu „prompt injection”? Zatrucie modelu to działanie długofalowe - hakerzy modyfikują model podczas jego trenowania, tworząc „uśpione instrukcje” (tzw. backdoors). Taki model może działać poprawnie przez 99% czasu, przechodząc rutynowe testy bezpieczeństwa, aby w najmniej oczekiwanym momencie - po wpisaniu konkretnego hasła-wyzwalacza - wykonać szkodliwe działanie, np. ujawnić dane czy wygenerować złośliwy kod.

Nowe narzędzie Microsoftu działa jak rentgen dla algorytmów GPT. Skaner analizuje wzorce „uwagi” modelu, szukając anomalii, takich jak nagłe skupienie się na konkretnym wyzwalaczu kosztem reszty kontekstu. Wykrywa również podejrzaną „nadmierną pamięć” (overfitting) dla specyficznych fraz, co często jest dowodem na celowe zatrucie danych treningowych. Co najważniejsze, proces ten jest szybki i nie wymaga kosztownego ponownego trenowania sieci.

Dla firm wdrażających AI w środowiskach produkcyjnych to przełom. Skaner pozwala zweryfikować zaufanie do modeli open-source czy tych trenowanych na zewnętrznych zbiorach danych. W 2026 roku, gdy „zatruwanie” staje się realnym ryzykiem biznesowym, a nie tylko teorią, narzędzie Microsoftu może stać się standardowym wyposażeniem każdego zespołu ds. cyberbezpieczeństwa.

Źródło: findarticles.com

Komentarze (2)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper