Голосовой троян: как работает ультразвуковая атака на устройства

Фото: Shutterstock
Фото: Shutterstock
Популярность устройств с голосовыми ассистентами растет — к 2024 году их число во всем мире может превысить 8 млрд. Исследователи продолжают выявлять новые угрозы, которые могут сделать «умный» дом небезопасным

Американские ученые из Техасского университета в Сан-Антонио и Колорадского университета в Колорадо-Спрингс открыли новый вид удаленных атак, который позволяет хакерам получить доступ к устройствам с голосовыми помощниками. «РБК Тренды» ознакомились с работой исследователей, а также выяснили, как защититься от подобных угроз.

Как работает ультразвуковая атака

Исследователи назвали открытый ими вид атаки NUIT (Near-Ultrasound Inaudible Trojan). Название выбрано, потому что злоумышленники преобразуют голосовые команды в неразличимые человеческим ухом сигналы на грани ультразвука, на которые реагируют голосовые помощники. Это позволяет удаленно управлять устройством и получить данные о его владельце незаметно для него самого. Хакер может попросить устройство совершить или принять звонок, выполнить денежный перевод, отключить систему сигнализации, открыть дверь и т.д.

Исследователи рассмотрели вариант встраивания таких команд в приложения или видео на YouTube. Пользователя можно спровоцировать на просмотр видео путем социальной инженерии или при помощи иной уловки, а в этот момент оно будет транслировать скрытые команды. «Как только жертва воспроизведет такой ролик, вольно или невольно, злоумышленник сможет манипулировать Siri, чтобы, например, открыть дверь», — говорят ученые.

Фото:Jan Kolar / Unsplash
Индустрия 4.0 Привет, Siri. Как сделать так, чтобы ты перестала подслушивать?

Какие устройства уязвимы для атак

Исследователи отметили, что атаке NUIT в разной степени подвержены голосовые помощники Siri от Apple, Assistant от Google, Cortana от Microsoft и Amazon Alexa. Таким образом, ультразвуковые атаки могут потенциально затронуть миллионы устройств, начиная от смартфонов и ноутбуков и заканчивая «умными» динамиками и камерами. По данным Statista, с 2020 по 2024 год число устройств с голосовыми ассистентами удвоится.

Авторы исследования продемонстрировали журналистам издания The Register два примера атак:

  • через динамик для атаки на микрофон и голосового помощника на том же устройстве;
  • через динамик одного устройства на микрофон и голосового помощника на другом устройстве.

В первом случае исследователи удаленно настроили громкость iPhone таким образом, чтобы он подавал команды Siri слишком тихо для пользователя, а помощник так же незаметно выполнял их. В случае с Assistant, Cortana и Alexa атаку первого типа провести не удалось: устройства с этими помощниками заметно реагировали на ультразвуковые команды. В ходе имитации атаки исследователи сначала применяли команду «speak six percent», которая снижала громкость ответа Siri до 6%, а потом — «open the door» («открой дверь»). Если помощник был подключен к системам «умного» дома, то он исполнял команду.

Во втором типе атаки исследователи показали, как злоумышленник использует динамик одного устройства для атаки на микрофон и связанного с ним голосового помощника второго устройства. Например, во время видеоконференции в Zoom атаку можно провести, если телефон одного из участников встречи будет лежать рядом с компьютером.

Исследователи протестировали в общей сложности 17 устройств. Атаки NUIT безупречно сработали против iPhone X, XR и 8. Атаки NUIT-1 оказались успешными против MacBook Pro 2021 года и MacBook Air 2017 года, а также Samsung Galaxy S8, S9 и A10e. В случае с «умной» колонкой Echo Dot первого поколения от Amazon получилось провести атаку NUIT-2.

Пример атаки NUIT-2
(Видео: YouTube)

Ноутбуки Dell Inspiron 15 были успешно атакованы в обоих сценариях, но они реагировали на команды слишком громко и заметно для пользователя.

«Умные» часы Apple Watch 3, смартфоны Google Pixel 3, планшеты Galaxy Tab S4, смартфоны LG ThinQ V35, колонки Google Home 1 оказались невосприимчивыми к NUIT-1, но могли быть атакованы с помощью NUIT-2.

А вот iPhone 6 Plus не был подвержен ни одной из атак. Причина может быть в том, что в этой версии смартфона используется менее мощный усилитель по сравнению с новыми моделями iPhone.

Исследователи подчеркнули, что некоторые устройства в принципе неуязвимы для атак типа NUIT-1, поскольку расстояние между динамиком устройства и микрофоном у них слишком велико.

Атаки подобного типа

В 2019 году исследователи из Университета штата Мичиган показали, как получить удаленный доступ к устройствам с голосовыми помощниками через портативную лазерную систему Light Commands. Они направляли на место размещения микрофона в «умных» устройствах лазерные лучи с закодированными сигналами. Исследователям удалось добиться выполнения команд на расстоянии до 110 м, причем система преодолевала даже преграды в виде оконного стеклопакета. Лазерная система подавала определенный сигнал, который вызывал колебания диафрагмы встроенного микрофона «умного» устройства и воспринимался как голосовая команда пользователя.

Устройство системы лазеров и принцип ее работы
(Видео: YouTube)

Исследователи смогли управлять «умной» колонкой Google Home из соседнего здания, с расстояния около 75 м. В итоге они открыли ворота гаража путем кодирования в сигнале фразы «Окей, Google, открой гаражные ворота».

Эксперимент с открытием гаража
(Видео: YouTube)

А в 2017 году исследователи из Чжэцзянского университета представили концепт атаки DolphinAttack, которая позволяла незаметно контролировать голосовых помощников с помощью неразличимых для человеческого уха частот. Атаку протестировали на ассистентах Alexa, Cortana, Google Now, Huawei HiVoice, Samsung S Voice и Siri, а также на 16 платформах и устройствах (смартфоны, компьютеры, автомобили, «умные» дома). В итоге исследователи смогли запустить Facetime на iPhone, проигрывать музыку на Amazon Echo и управлять системой навигации в автомобилях Audi.

Тестирование DolphinAttack
(Видео: YouTube)

В 2020 году эксперты из Университета штата Мичиган, Университета Вашингтона в Сент-Луисе, Академии наук Китая и Университета Небраски в Линкольне продемонстрировали новую систему под названием SurfingAttack, которая позволяет удаленно контролировать виртуальных ассистентов Google Assistant и Apple Siri при помощи ультразвуковых команд. Тогда они использовали для передачи сигналов нелинейную природу микрофонных схем MEMS. Эксперты воспользовались простым пьезоэлектрическим преобразователем (устройством, которое преобразует электрическую энергию в механическую и наоборот), который они прикрепили к поверхности стола. Затем они отрегулировали громкость ответов атакуемого устройства с помощью направленной ультразвуковой команды и начали передавать указания помощнику через скрытый жучок под столом. Тогда сообщалось, что теоретически такая атака может работать на расстоянии до 9 м.

Эксперимент с атакой SurfingAttack
(Видео: YouTube)

SurfingAttack проверили на различных устройствах, включая Google Pixel, Apple iPhone, Samsung Galaxy S9 и Xiaomi Mi 8. Все они оказались уязвимыми для атаки. Исследователям не удалось атаковать только Huawei Mate 9 и Samsung Galaxy Note 10+, «умные» колонки Amazon Echo и Google Home.

Как избежать ультразвуковой атаки

Авторы исследования об ультразвуковых атаках NUIT порекомендовали владельцам устройств предпринять следующие шаги, чтобы не стать их жертвой:

  • использовать наушники вместо динамиков — их звук слишком тихий и далекий, чтобы передаваться на соседние микрофоны и активировать голосового помощника;
  • включить аутентификацию по голосу для защиты от несанкционированного использования.

Производителям же рекомендуется разработать средства обнаружения атак типа NUIT, которые будут распознавать сигналы с частотой, близкой к ультразвуку, и отклонять такие команды как вредоносные.

«Это не просто проблема с программным обеспечением или вредоносным ПО. Это аппаратная атака, которая использует интернет. Уязвимость заключается в нелинейности конструкции микрофона, которую производителю необходимо устранить», — подчеркнули исследователи. По их словам, только Apple Siri для активации требуется голосовой слепок владельца, а других помощников можно использовать с помощью любого голоса или даже голоса робота.

Сторонние исследователи также рекомендуют меры, которые позволят повысить общую безопасность взаимодействия с голосовыми помощниками:

  • используйте только доверенные сторонние приложения, например от производителя устройства или авторитетного издателя;
  • не связывайте конфиденциальные учетные данные или кредитные карты с голосовым помощником;
  • отключайте звук или самого помощника после использования;
  • используйте WPA2-шифрование в вашем Wi-Fi.
Обновлено 12.05.2023
Главная Лента Подписаться Поделиться
Закрыть