Госдума одобрила штрафы до ₽1,5 млн за нарушение закона о биометрии

Госдума одобрила штрафы до ₽1,5 млн за нарушение закона о биометрии

Госдума одобрила штрафы до ₽1,5 млн за нарушение закона о биометрии

Госдума РФ в третьем чтении приняла законопроект, вводящий административную ответственность за нарушение требований по сбору и размещению биометрических данных граждан.

Авторы законодательной инициативы — группа депутатов, среди которых числятся председатель Госдумы Вячеслав Володин и руководители фракций. Подготовленный ими документ предполагает внесение поправок в КоАП.

В частности, в текст ч. 2 ст. 13.11 предложено ввести упоминание биометрических данных (как разновидности ПДн). Поскольку одновременно повышаются штрафы за нарушение законодательства в области персданных, изменения коснутся также части 2.1 этой статьи.

Вилки штрафов будут установлены следующим образом:

  • за размещение биометрических данных в ЕБС и других ИС, использующих такие данные, с нарушением норм, а также за сбор ПДн без согласия владельцев — от 100 тыс. до 300 тыс. руб. для должностных лиц, от 300 тыс. до 700 тыс. руб. для юрлиц;
  • при повторном правонарушении — от 300 тыс. до 500 тыс. руб. для должностных лиц, от 500 тыс. до 1 млн руб. для ИП, от 1 млн до 1,5 млн руб. для юрлиц.

Согласно пояснительной записке, цель данного законопроекта — повышение уровня защиты и безопасности биометрических данных граждан, а также обеспечение дополнительных условий для профилактики соответствующих правонарушений.

В официальном отзыве на законопроект рекомендуется вынести биометрические данные в дополнительную статью КоАП. Полномочиями по рассмотрению дел о таких правонарушениях предложено наделить должностных лиц Банка России.

Закон «О единой биометрической системе», принятый в конце 2022 года, вступил в силу 1 июня. Он обязывает компании, хранящие данные клиентов, передавать их в ЕБС, получать аккредитацию для обработки информации и заручаться письменным согласием клиентов для ее сбора.

Киберпреступники могут использовать Copilot и Grok как сервер управления

ИИ-ассистенты с доступом к вебу можно использовать как «посредников» для управления заражёнными компьютерами. К такому выводу пришли исследователи Check Point, показав, как Grok и Microsoft Copilot могут быть задействованы в схеме командного сервера (C2) атакующих.

Идея простая, но изящная. Вместо того чтобы вредоносная программа напрямую связывалась с сервером злоумышленника (что часто отслеживается и блокируется), она обращается к веб-интерфейсу ИИ.

А уже тот по инструкции запрашивает нужный URL и возвращает ответ в своём тексте. В итоге ИИ становится своеобразным «ретранслятором» между атакующим и заражённой машиной.

В демонстрационном сценарии Check Point использовала компонент WebView2 в Windows 11, он позволяет встроить веб-страницу прямо в приложение. Исследователи создали программу на C++, которая открывает WebView с Grok или Copilot и передаёт ассистенту инструкции. Даже если WebView2 отсутствует в системе, злоумышленник может доставить его вместе с вредоносной программой.

 

Дальше схема выглядит так: атакующий размещает на своём сервере зашифрованные данные или команды. Вредонос обращается к ИИ и просит, например, «получить и суммировать содержимое страницы». Ассистент возвращает ответ, а зловред извлекает из текста нужные инструкции. В обратную сторону можно передавать и украденные данные — также в зашифрованном виде.

 

Так создаётся двусторонний канал связи через легитимный ИИ-сервис. Поскольку обращения идут к доверенному ресурсу, системы фильтрации трафика могут не заподозрить ничего необычного.

Примечательно, что в PoC не требовались ни API-ключи, ни учётные записи. Это усложняет блокировку: нельзя просто «отозвать ключ» или заблокировать аккаунт, как в случае злоупотребления облачными сервисами.

Исследователи отмечают, что у платформ есть механизмы защиты от явно вредоносных запросов. Однако их можно обойти, если передавать данные в виде зашифрованных фрагментов с высокой энтропией — тогда для ИИ это просто «бессмысленный текст», который он честно перескажет или обработает.

В Check Point подчёркивают, что использование ИИ как C2-прокси — лишь один из возможных сценариев злоупотребления. Теоретически модели могут применяться и для анализа окружения жертвы: стоит ли продолжать атаку, какие действия менее заметны и т. д.

RSS: Новости на портале Anti-Malware.ru