В РФ создали прототип системы автоматического выявления фишинговых сайтов

В РФ создали прототип системы автоматического выявления фишинговых сайтов

В РФ создали прототип системы автоматического выявления фишинговых сайтов

Генпрокуратура и Минцифры вместе работают над системой автоматического выявления фишинговых сайтов. Уже готов прототип. Данными системы будут пользоваться Генпрокуратура, Банк России, Минцифры и Роскомнадзор.

Планы запустить систему выявления фишинговых сайтов ТАСС подтвердили в пресс-службе Генпрокуратуры.

"В настоящее время Генеральной прокуратурой РФ с Минцифры России и Роскомнадзором ведется работа, направленная на противодействие использованию фишинговых ресурсов, производящих незаконный сбор персональных данных, а также сведений о платежных картах и паролях к операциям при дистанционном банковском обслуживании", — говорится в сообщении надзорного ведомства.

Там уточнили, что уже разработан соответствующий законопроект. Он описывает, как быстро блокировать фишинговые сайты, используя новую систему.

"Функционирующий прототип обеспечивает поиск в автоматическом режиме сайтов указанной категории. Планируется, что система обеспечит электронное взаимодействие Генеральной прокуратуры, Банка России, Минцифры России, Роскомнадзора и других заинтересованных органов в указанной сфере", — отметили в Генпрокуратуре.

Разработчика ведомство пока не называет. Однако в начале декабря стало известно о госконтракте подведомственного Минцифры НИИ “Интеграл” на доработку и модернизацию системы мониторинга фишинговых сайтов и сливе ПДн в интернет. Ноябрьский тендер выиграл единственный участник аукциона — ООО “Рубитех”.

Стартовая цена закупки составила 170,7 млн руб., срок окончания работ — сентябрь 2023 года. Согласно ТЗ, поставщик должен создать несколько новых компонентов ИС и усовершенствовать существующие.

О планах Минцифры создать систему мониторинга фишинговых сайтов заговорили еще прошлой осенью. На разработку планировали потратить 132 миллиона рублей, система должна была появиться к лету 2022 года.

Специалисты в области кибербезопасности тогда отнеслись к замыслу скептически. По словам экспертов, платформа Минцифры вряд ли станет эффективным средством борьбы с фишингом. Её работа будет основана на списке фейковых сайтов, однако попадание ресурса в лист не предотвращает создание множества других фишинговых площадок.

По свежему техзаданию, искать фишинг и утечки будут также в Twitter, репозитории GitHub, Telegram-каналах и публичных анонимайзерах (прокси-сервисы, VPN, Tor).

Добавим, Group-IB в ноябре насчитала в рунете 18 тыс. фишинговых сайтов. Это на 15% больше, чем год назад.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru