BI.ZONE Mail Security получила ИИ для анализа эмоций в письмах

BI.ZONE Mail Security получила ИИ для анализа эмоций в письмах

BI.ZONE Mail Security получила ИИ для анализа эмоций в письмах

В BI.ZONE Mail Security появилась новая ИИ-функциональность: система научилась анализировать эмоциональную окраску писем и использовать это для выявления атак. Обновление вошло в версию 2.11 и нацелено прежде всего на борьбу с фишингом и BEC-сценариями, замаскированными под обычную деловую переписку.

Новый ИИ-модуль оценивает тональность писем — позитивную, негативную или нейтральную — и параллельно ищет признаки манипулятивного воздействия.

Речь идёт о характерных приёмах социальной инженерии: давлении, апелляции к срочности, тревожной или ультимативной подаче. За счёт этого система может точнее понимать намерения отправителя и быстрее реагировать на письма, которые внешне выглядят легитимно, но на самом деле подталкивают получателя к рискованным действиям.

Как отмечают в BI.ZONE, злоумышленники всё чаще выдают себя за бухгалтерию, руководителей или подрядчиков и делают ставку не на вредоносные вложения, а на психологию. Поэтому задача защиты почты сегодня — не просто проверить ссылки и домены, а распознать контекст и скрытые попытки давления. Анализ эмоциональных и поведенческих паттернов позволяет лучше отделять реальные рабочие письма от фишинга и атак класса BEC.

Помимо ИИ-анализа, в версии 2.11 доработали и сопутствующую функциональность. Появилась автоматическая синхронизация списка разрешённых получателей с Active Directory, что упрощает администрирование и снижает риск ошибок в настройках. Для защиты учётных записей добавили двухфакторную аутентификацию по TOTP и механизм принудительной смены паролей по истечении срока их действия.

Обновили и сценарии реагирования на подозрительные письма. Теперь можно включать предупреждения для сообщений от внешних отправителей и добавлять кнопку жалобы прямо в тело письма. Если на сообщение пожаловался один сотрудник, система повышает риск-рейтинг отправителя и блокирует его письма только для этого пользователя.

При массовых жалобах блокировка применяется уже на уровне всей организации. При этом учитываются и обратные ситуации: если письма разрешают или массово помечают отправителя как доверенного, риск-рейтинг автоматически снижается — индивидуально или глобально.

В новой версии также усилили фильтрацию поддельных писем: улучшили проверку DMARC для защиты от подмены доменов. Для onprem-установок упростили обновление — теперь перейти на актуальную версию можно напрямую через инсталлятор. Журнал сообщений стал более подробным: в нём отображается рейтинг письма на каждом этапе проверки и детальная информация по SMTP-анализу. Кроме того, администраторам дали возможность вручную обучать модель категоризации писем через веб-интерфейс.

В итоге BI.ZONE Mail Security 2.11 делает акцент не столько на «громкие» вредоносные письма, сколько на тихие, психологически выверенные атаки — именно те, которые сегодня всё чаще проходят под видом обычной корпоративной переписки.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru