Киберпреступность стала экзистенциальной проблемой

Киберпреступность стала экзистенциальной проблемой

Киберпреступность стала экзистенциальной проблемой

Теме киберпреступности была посвящена сессия «Цифровая безопасность и ответственность бизнеса» на Восточном экономическом форуме (ВЭФ). Уже за 7 месяцев 2024 года зарегистрировано 577 тыс. преступлений с использованием инфокоммуникационных технологий.

Как отметил заместитель руководителя Следственного департамента МВД России Даниил Филиппов, ущерб от них составил 99 млрд руб. За весь 2023 г. – 677 тыс., ущерб составил 156 млрд руб.

По итогам 2023 г. преступления, совершенные с использованием ИТ, составили 30% от общего числа. Такие данные привела «Интерфаксу» официальный представитель МВД Ирина Волк.

Даниил Филиппов назвал угрозу киберпреступности экзистенциальной, меняющей всю ее структуру. Он привел такой пример:

«У нас в Питере пенсионерка, находясь под влиянием мошенников, отдала все свое имущество, взяла кредит, отдала и его. После этого киберпреступники сформировали в ее сознании определенную ненависть к госструктурам и заставили ее совершить поджог военкомата. В итоге были возбуждены уголовные дела, и пенсионерка получила 10 лет лишения свободы. Проблема выходит на первый план потому, что люди становятся не только жертвами, они становятся опасными, в том числе для окружающих».

По оценке Даниила Филиппова, наиболее уязвимы перед ИТ-преступниками обычные граждане. Предприятия же обычно хорошо защищены.

Начальник отдела по надзору за исполнением законов в сфере информационных технологий и защиты информации Генпрокуратуры Олег Кипкаев, однако, назвал данные граждан весьма уязвимыми, о чем свидетельствуют результаты проведенных проверок. За 2,5 года только на объектах критической информационной инфраструктуры выявлено более 155 тыс. нарушений. Кипкаев призвал остановить сбор избыточных персональных данных и прекратить принуждение граждан к их передаче.

Член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин особо обратил внимание на региональный сегмент. Картина с соблюдением норм информационной гигиены там, по его оценке, катастрофическая.

Другой депутат Госдумы Николай Новичков обратил внимание на противоправное использование искусственного интеллекта. Он поделился опытом того, как столкнулся с такой атакой, когда ему был совершен звонок от имени председателя Госдумы Вячеслава Володина:

«Мне буквально на днях звонил фейковый Вячеслав Володин. Понятно, что я трубку не снял, но надо быть готовым к тому, что звонки такие каждому из нас будут поступать, когда наши "знакомые", "близкие" или "начальник" звонят и говорят, что нужно сделать определенные действия — это элемент социальной инженерии».

Однако, по его мнению, «это даже не цветочки, еще почва не вспахана», но угроза с учетом быстрого развития технологий может развиться очень быстро.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru