Американские ученые из Техасского университета в Сан-Антонио и Колорадского университета в Колорадо-Спрингс открыли новый вид удаленных атак, который позволяет хакерам получить доступ к устройствам с голосовыми помощниками. «РБК Тренды» ознакомились с работой исследователей, а также выяснили, как защититься от подобных угроз.
Как работает ультразвуковая атака
Исследователи назвали открытый ими вид атаки NUIT (Near-Ultrasound Inaudible Trojan). Название выбрано, потому что злоумышленники преобразуют голосовые команды в неразличимые человеческим ухом сигналы на грани ультразвука, на которые реагируют голосовые помощники. Это позволяет удаленно управлять устройством и получить данные о его владельце незаметно для него самого. Хакер может попросить устройство совершить или принять звонок, выполнить денежный перевод, отключить систему сигнализации, открыть дверь и т.д.
Исследователи рассмотрели вариант встраивания таких команд в приложения или видео на YouTube. Пользователя можно спровоцировать на просмотр видео путем социальной инженерии или при помощи иной уловки, а в этот момент оно будет транслировать скрытые команды. «Как только жертва воспроизведет такой ролик, вольно или невольно, злоумышленник сможет манипулировать Siri, чтобы, например, открыть дверь», — говорят ученые.
Какие устройства уязвимы для атак
Исследователи отметили, что атаке NUIT в разной степени подвержены голосовые помощники Siri от Apple, Assistant от Google, Cortana от Microsoft и Amazon Alexa. Таким образом, ультразвуковые атаки могут потенциально затронуть миллионы устройств, начиная от смартфонов и ноутбуков и заканчивая «умными» динамиками и камерами. По данным Statista, с 2020 по 2024 год число устройств с голосовыми ассистентами удвоится.
Авторы исследования продемонстрировали журналистам издания The Register два примера атак:
- через динамик для атаки на микрофон и голосового помощника на том же устройстве;
- через динамик одного устройства на микрофон и голосового помощника на другом устройстве.
В первом случае исследователи удаленно настроили громкость iPhone таким образом, чтобы он подавал команды Siri слишком тихо для пользователя, а помощник так же незаметно выполнял их. В случае с Assistant, Cortana и Alexa атаку первого типа провести не удалось: устройства с этими помощниками заметно реагировали на ультразвуковые команды. В ходе имитации атаки исследователи сначала применяли команду «speak six percent», которая снижала громкость ответа Siri до 6%, а потом — «open the door» («открой дверь»). Если помощник был подключен к системам «умного» дома, то он исполнял команду.
Во втором типе атаки исследователи показали, как злоумышленник использует динамик одного устройства для атаки на микрофон и связанного с ним голосового помощника второго устройства. Например, во время видеоконференции в Zoom атаку можно провести, если телефон одного из участников встречи будет лежать рядом с компьютером.
Исследователи протестировали в общей сложности 17 устройств. Атаки NUIT безупречно сработали против iPhone X, XR и 8. Атаки NUIT-1 оказались успешными против MacBook Pro 2021 года и MacBook Air 2017 года, а также Samsung Galaxy S8, S9 и A10e. В случае с «умной» колонкой Echo Dot первого поколения от Amazon получилось провести атаку NUIT-2.
Ноутбуки Dell Inspiron 15 были успешно атакованы в обоих сценариях, но они реагировали на команды слишком громко и заметно для пользователя.
«Умные» часы Apple Watch 3, смартфоны Google Pixel 3, планшеты Galaxy Tab S4, смартфоны LG ThinQ V35, колонки Google Home 1 оказались невосприимчивыми к NUIT-1, но могли быть атакованы с помощью NUIT-2.
А вот iPhone 6 Plus не был подвержен ни одной из атак. Причина может быть в том, что в этой версии смартфона используется менее мощный усилитель по сравнению с новыми моделями iPhone.
Исследователи подчеркнули, что некоторые устройства в принципе неуязвимы для атак типа NUIT-1, поскольку расстояние между динамиком устройства и микрофоном у них слишком велико.
Атаки подобного типа
В 2019 году исследователи из Университета штата Мичиган показали, как получить удаленный доступ к устройствам с голосовыми помощниками через портативную лазерную систему Light Commands. Они направляли на место размещения микрофона в «умных» устройствах лазерные лучи с закодированными сигналами. Исследователям удалось добиться выполнения команд на расстоянии до 110 м, причем система преодолевала даже преграды в виде оконного стеклопакета. Лазерная система подавала определенный сигнал, который вызывал колебания диафрагмы встроенного микрофона «умного» устройства и воспринимался как голосовая команда пользователя.
Исследователи смогли управлять «умной» колонкой Google Home из соседнего здания, с расстояния около 75 м. В итоге они открыли ворота гаража путем кодирования в сигнале фразы «Окей, Google, открой гаражные ворота».
А в 2017 году исследователи из Чжэцзянского университета представили концепт атаки DolphinAttack, которая позволяла незаметно контролировать голосовых помощников с помощью неразличимых для человеческого уха частот. Атаку протестировали на ассистентах Alexa, Cortana, Google Now, Huawei HiVoice, Samsung S Voice и Siri, а также на 16 платформах и устройствах (смартфоны, компьютеры, автомобили, «умные» дома). В итоге исследователи смогли запустить Facetime на iPhone, проигрывать музыку на Amazon Echo и управлять системой навигации в автомобилях Audi.
В 2020 году эксперты из Университета штата Мичиган, Университета Вашингтона в Сент-Луисе, Академии наук Китая и Университета Небраски в Линкольне продемонстрировали новую систему под названием SurfingAttack, которая позволяет удаленно контролировать виртуальных ассистентов Google Assistant и Apple Siri при помощи ультразвуковых команд. Тогда они использовали для передачи сигналов нелинейную природу микрофонных схем MEMS. Эксперты воспользовались простым пьезоэлектрическим преобразователем (устройством, которое преобразует электрическую энергию в механическую и наоборот), который они прикрепили к поверхности стола. Затем они отрегулировали громкость ответов атакуемого устройства с помощью направленной ультразвуковой команды и начали передавать указания помощнику через скрытый жучок под столом. Тогда сообщалось, что теоретически такая атака может работать на расстоянии до 9 м.
SurfingAttack проверили на различных устройствах, включая Google Pixel, Apple iPhone, Samsung Galaxy S9 и Xiaomi Mi 8. Все они оказались уязвимыми для атаки. Исследователям не удалось атаковать только Huawei Mate 9 и Samsung Galaxy Note 10+, «умные» колонки Amazon Echo и Google Home.
Как избежать ультразвуковой атаки
Авторы исследования об ультразвуковых атаках NUIT порекомендовали владельцам устройств предпринять следующие шаги, чтобы не стать их жертвой:
- использовать наушники вместо динамиков — их звук слишком тихий и далекий, чтобы передаваться на соседние микрофоны и активировать голосового помощника;
- включить аутентификацию по голосу для защиты от несанкционированного использования.
Производителям же рекомендуется разработать средства обнаружения атак типа NUIT, которые будут распознавать сигналы с частотой, близкой к ультразвуку, и отклонять такие команды как вредоносные.
«Это не просто проблема с программным обеспечением или вредоносным ПО. Это аппаратная атака, которая использует интернет. Уязвимость заключается в нелинейности конструкции микрофона, которую производителю необходимо устранить», — подчеркнули исследователи. По их словам, только Apple Siri для активации требуется голосовой слепок владельца, а других помощников можно использовать с помощью любого голоса или даже голоса робота.
Сторонние исследователи также рекомендуют меры, которые позволят повысить общую безопасность взаимодействия с голосовыми помощниками:
- используйте только доверенные сторонние приложения, например от производителя устройства или авторитетного издателя;
- не связывайте конфиденциальные учетные данные или кредитные карты с голосовым помощником;
- отключайте звук или самого помощника после использования;
- используйте WPA2-шифрование в вашем Wi-Fi.