В 2020-м нас ждут утечки биометрических данных и целевое вымогательство

В 2020-м нас ждут утечки биометрических данных и целевое вымогательство

В 2020-м нас ждут утечки биометрических данных и целевое вымогательство

Эксперты «Лаборатории Касперского» поделились своим видением развития сложных угроз и целевых атак (так называемых Advanced Persistent Threats – АРТ) в 2020 году. Прогнозы были сделаны на основе тех событий и инцидентов, которые специалисты наблюдали на протяжении последних месяцев. Выявленные тенденции предполагают, что угрозы станут более скрытными и целенаправленными, а распространение новейших технологий, таких как, например, машинное обучение и нейросети, выведут сложность кибератак на новый уровень.

В частности, по оценкам «Лаборатории Касперского», в самое ближайшее время возникнет опасность утечек особенно ценной информации – например биометрических данных человека. Персональная информация пользователей помогает злоумышленникам совершенствовать свои методы социальной инженерии и проводить более убедительные атаки, так что их интерес к чужим личным данным будет только возрастать. Помимо этого, киберпреступники вполне могут начать применять искусственный интеллект для профилирования жертвы и создания информационных подделок – так называемых deep fake, которые уже сегодня достаточно широко обсуждаются.

В последнее время злоумышленники стали отходить от практики массового распространения универсальных программ-вымогателей и стали более тщательно выбирать своих жертв – другими словами, они ищут те компании, которые будут готовы заплатить значительные суммы за восстановление своих данных. Как предполагают эксперты «Лаборатории Касперского», в ближайший год это «целевое вымогательство» будет набирать обороты и, возможно, станет более агрессивным. Например, вместо шифрования файлов злоумышленники могут начать угрожать жертвам публикацией украденных данных. Кроме того, в попытках диверсифицировать свои атаки с помощью программ-вымогателей киберпреступники могут избрать мишенями не самые очевидные устройства – умные телевизоры, часы, машины, дома и т.п.

Одной из особенностей АРТ-атак является их скрытность. Они настолько тщательно спланированы и проработаны, что жертва может очень долгое время не подозревать о том, что находится под атакой. Также в большинстве случаев не представляется возможным установить, кто именно стоит за подобными вредоносными операциями, и отчасти это «заслуга» самих злоумышленников: они старательно маскируют следы своей деятельности и нередко расставляют так называемые «ложные флаги», чтобы пустить исследователей по неверному следу. И как полагают эксперты «Лаборатории Касперского», эта тенденция продолжит своё развитие. Киберкриминальные группы будут стремиться не только избежать атрибуции, но и выставить виноватым за свои действия кого-либо ещё. Для этого он могут, например, намеренно использовать бэкдоры, которые ассоциируются с другими АРТ-группировками, или специально сливать свой код, чтобы им воспользовались другие атакующие и ещё больше запутали общую картину.

«Ни один прогноз, даже самый подробный и тщательный, не может предусмотреть всего, что, возможно, случится в будущем. Среды, в которых разворачиваются атаки, настолько обширны, а обстоятельства так многогранны, что будущее развитие угроз наверняка будет сложнее самых хороших прогнозов. Кроме того, ни у кого из исследователей нет полного представления о действиях АРТ-группировок. Всё это тем не менее не отменяет того, что мы продолжим следить за развитием АРТ-угроз и стоящих за ними злоумышленников и будем стараться ещё лучше понимать их методы, предугадывать их действия и возможные последствия», – отметил Дмитрий Галов, антивирусный эксперт «Лаборатории Касперского».

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru