Kacper Mądry Kacper Mądry 14.05.2018 12:55
Hakowanie domu poprzez niesłyszalne dla ludzkiego ucha komendy głosowe
789V

Hakowanie domu poprzez niesłyszalne dla ludzkiego ucha komendy głosowe

Rozwijająca się technologia sterowania głosowego musi wprowadzić dodatkowe zabezpieczenia. Znaleziono sposób na niesłyszalne sterowanie asystentami głosowymi.

Asystent Google, Siri Apple i Alexa Amazona musza się mieć na baczności. Okazuje się, że istnieje sposób na wydawanie niesłyszalnych dla ludzkiego ucha komend.

Google ujawnia Android P

Naukowcy odkryli sposób na sterowanie asystentami głosowymi poprzez niesłyszalnymi dla ludzkiego ucha dźwiękami. Okazuje się, że sprzęty te wychwytują ultradźwięki, które pozwalają na wydawanie poleceń urządzeniom. Użytkownik nawet nie musi być świadomym tego, że jego urządzenie wykonuje jakieś czynności, ponieważ pierwszym poleceniem może być np. prośba o wyciszenie komunikatów.

Aktualnie testy zostały przeprowadzone w warunkach laboratoryjnych, jednak dowodzą one, że teoretycznie istnieje już taka możliwość. Gdy np. nasz telefon jest połączony z inteligentnym domem, haker mógłby przejąć nad nim kontrolę wydąc polecenia, których nawet nie usłyszymy.

Przykłady? Naukowcom z Uniwersytetu Berkley udało się ukryć komendę "O.K. Google, browse to evil.com" w nagraniu mówiącym "Without the data set, the article is useless." Nikt nie usłyszał ukrytej frazy. Chiński Uniwersytet Zhejiang zademonstrował również jak działa wydawanie poleceń za pomocą ultradźwięków. Poniższe nagranie prezentuje komendę czytaną przez lektora Google, którą iPhone spełnia. Następnie operacja zostaje powtórzona jednak mówiący telefon zostaje podpięty pod aparaturę ultradźwiękową. To samo polecenie zostaje uruchomione, a iPhone ponownie je spełnia. Z tą różnicą, że teraz żaden człowiek tego nie słyszy.

Uniwersytet Zhejiang - komenda wydana smartfonowi za pomocą ultradźwięków

Czy to oznacza, że mamy poważny problem, a wizja świata z Watch_Dogs staje się faktem? Na szczęście takie polecenia głosowe udało się osiągnąć tylko w warunkach laboratoryjnych. Pamiętajmy również, że asystenty głosowe rozpoznają nasz głos co oznacza, że jeśli usłyszą polecenie wydane przez kogoś innego - nie zareagują. Jednak na wszelki wypadek, firmy powinny wprowadzić dodatkowe zabezpieczenia.

Źródło: https://www.nytimes.com/2018/05/10/technology/alexa-siri-hidden-command-audio-attacks.html

Tagi: alexa Amazon apple google hakowanie iphone siri watch dogs