Специалисты Университета Чжэцзяна нашли уязвимое место голосовых помощников: их можно взломать с помощью ультразвука.

Amazon Alexa, Apple’s Siri, Google Now, Samsung S Voice, Microsoft Cortana и Huawei HiVoice, а также некоторые другие голосовые системы, предназначенные для автомобилей имеют эту уязвимость.

Ультразвуковые команды хоть и не слышны человеческому уху, однако хакер получает доступ к динамику, смартфону и другим устройствам, подключенным к нему. Когда Alexa или Siri слышат обычную фразу, сигнализирующую начало диалога с владельцем, даже на другой частоте, все равно подчиняются команде.

Для взлома злоумышленник должен оказаться рядом с устройством, даже проходя мимо, но это зависит от мощности микрофона устройства.

Популярные статьи сейчас

Соцвыплаты заставят вернуть до копейки: государство угрожает судами - кого коснется

Военный заявил, что ему "не жалко гражданских" после трагедии в Кривом Роге: "Если родители уклонисты – нет"

Одна ошибка — и пенсия исчезнет: украинцам ужесточили правила

Гражданских будут брать в армию без мобилизации: привлекут ТЦК и рекрутинговые центры

Показать еще

Но далеко не все устройства можно легко взломать. К примеру, для взлома Alexa от Amazon необходимо записать голос владельца.

Ранее портал "Знай.ua" сообщил, что Facebook тестирует удобное приложение.