Siri взломали с помощью ультразвука

84

0

Умные помощники, управляемые голосом, переживают настоящий бум. На выставке IFA 2017 производители демонстрировали самые разные устройства, которые оснащены голосовыми помощниками Amazon Alexa, Google Assistant или Apple Siri (через HomeKit). Они, по общему признанию, довольно удобны и быстры, но те же сильные стороны могут быть и их ахиллесовой пятой. Китайские исследователи продемонстрировали, что Siri, Alexa, Cortana и Google Assistant можно легко взломать, чтобы они выполняли задачи без ведома, а тем более разрешения их владельцев. Все это происходит с помощью команд, которые никто не слышит.

2.jpg

Как и любая волна, звук охватывает широкий диапазон частот и только небольшая его часть на самом деле слышима для людей. Все, что ниже 20 Гц и выше 20 кГц, незаметно для наших ушей. Но микрофоны в наших телефонах и умных динамиках способны обнаруживать звук за пределами этих диапазонов, что, по сути, может быть использовано для разных целей. К сожалению, этот факт также можно использовать, чтобы давать им команды, которые ставят пользователей под угрозу.

Исследователям удалось создать устройство с помощью недорогих деталей, таких как усилитель и динамик общей стоимостью около $3. На определенном расстоянии они не только смогли активировать голосовые помощники, но и смогли заставить их выполнять определенные задачи (видео ниже). Представьте, что ваш смартфон после такой неслышимой команды посетит вредоносный веб-сайт или ваш умный динамик откроет дверь.


Существует только одно ограничение для данной атаки, получившей название «DolphinAttack». Взломщик должен находиться на определенном расстоянии от смартфона или умного динамика, чтобы они уловили ультразвуки – от нескольких сантиметров до нескольких метров.

К сожалению, компании, разрабатывающие голосовые помощники, не могут в одночасье просто запретить устройствам воспринимать все звуки, выходящие за пределы обычного человеческого диапазона. Данные платформы используют более высокие, незаметные частоты, чтобы лучше анализировать голосовые команды. Конечно, не всякому под силу взломать смартфоны таким способом, однако, учитывая серьезность исходящей опасности, разработчики должны начать работать над исправлением ситуации.

Похожие посты

Регистрация прошла успешно