Госдума приняла закон о противодействии онлайн-мошенничеству

Госдума приняла закон о противодействии онлайн-мошенничеству

Госдума приняла закон о противодействии онлайн-мошенничеству

Государственная Дума приняла во втором и третьем чтениях законопроект № 842276–8 «О создании государственной информационной системы противодействия правонарушениям, совершаемым с использованием информационных и коммуникационных технологий, и о внесении изменений в отдельные законодательные акты Российской Федерации».

Законопроект разработан правительством. Комплекс соответствующих мер был анонсирован главой Минцифры Максутом Шадаевым в конце ноября 2024 года, а в феврале 2025 года внесён в Госдуму. Первое чтение документа состоялось 18 марта.

Ко второму и третьему чтениям законопроект был доработан. В частности, использование биометрической идентификации теперь закреплено как право, а не обязанность.

«Учтены предложения цифровых платформ, в том числе агрегаторов, операторов связи, сайтов объявлений, в части использования биометрических персональных данных. В итоговом варианте закреплено право, а не обязанность внедрения этого фактора при идентификации», — отметил глава комитета Госдумы по информационной политике Сергей Боярский.

Закон вводит «правило второй руки»: клиент банка сможет назначить третье лицо, которое будет подтверждать или отклонять проведение операций. Кроме того, банки обяжут проверять правомерность снятия наличных с карт через банкоматы по признакам, которые разработает Банк России.

Документ также предусматривает прямой запрет на использование зарубежных мессенджеров для информирования граждан. Это касается участников национальной платёжной системы, операторов связи, владельцев агрегаторов товаров и услуг, а также сайтов, страниц и сервисов с ежедневной аудиторией более 500 тыс. пользователей и электронных досок объявлений с аудиторией от 100 тыс. посетителей в день.

«Более 90% преступлений с применением социальной инженерии у нас совершаются с использованием иностранных мессенджеров, когда мошенники представляются сотрудниками госорганов, банков, цифровых платформ, операторов связи», — заявил министр цифрового развития, связи и массовых коммуникаций Максут Шадаев, представляя законопроект в Госдуме.

Новый закон вводит обязательную маркировку звонков от организаций. Массовые обзвоны теперь разрешаются только при наличии явного согласия абонента, которое он может в любой момент отозвать. Также запрещена отправка СМС-сообщений во время телефонного соединения.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru