Исследователи нашли скрытые команды для Siri и Alexa, которые невозможно услышать человеку
Группа исследователей обнаружила, что специально записанные голосовые команды для помощников Siri и Alexa можно замаскировать под музыку или радиозаписи, пишут
Впервые на ситуацию обратили внимание еще в 2016 году,
В 2017 году исследователи из Принстонского университета и Чжэцзянского университета (Китай) показали технику, которую назвали DolphinAttack. Она тоже позволяет обмануть голосовое распознавание. Поначалу источник звука должен был располагаться в непосредственной близости к устройству. Со временем радиус действия удалось увеличить почти до 8 метров.
В этом месяце исследователи из Беркли пошли дальше — они
Авторы исследования заявляют, что следят за сохранностью уязвимости. По их информации, ее технические спецификации не покидали стен лаборатории. Впрочем, это не остановит желающих от самостоятельного изучения эксплоита.
Обман опирается на принцип работы систем распознавания голоса. Они интерпретируют звуки, которые слышат, в буквы, а затем складывают из них слова. Но если видоизменить аудиофайл, слышимые человеку звуки можно заменить на те, что недоступны нашему слуху.
Потенциальная уязвимость спровоцировала реакцию крупных компаний. В Google и Amazon сообщили, что их голосовые помощники активируются, только услышав голос владельца. В Apple рассказали, что для доступа к персональной информации система потребует от пользователя разблокировать iPhone или iPad. Однако, как напомнили в The New York Times, некоторые пользователи вообще не пользуются паролем на устройстве. Что касается HomePod — по словам представителей Apple, колонка разработана не для того, чтобы совершать операции вроде открытия замков.