Рост NDR-спама достигает пугающих масштабов

Рост NDR-спама достигает пугающих масштабов

В августе 2009 года PandaLabs зафиксировала рост на 2000% числа различных спамовых NDR-сообщений, находящихся в обращении (по сравнению с количеством экземпляров, обнаруженных с января по июнь текущего года). Двадцать процентов кодов от общего числа спама, отслеживаемого Panda Security, используют данную технологию. 

NDR (отчет о недоставке) – это электронное сообщение, автоматически отправленное пользователю почтовыми системами для того, чтобы сообщить о проблемах с доставкой сообщений. 

Такие сообщения обычно являются легитимными, но эта функция почтового сервера эксплуатируется спамерами для распространения спама, причем от имени реального пользователя – отправителя. Содержимое спама обычно рассылается в качестве вложения в фальшивое уведомление о недоставке. Несмотря на то, что, как правило, пользователи даже не пытались отправить предположительно не доставленное сообщение, им становится любопытно, и они открывают сообщение. 

Луис Корронс, технический директор PandaLabs, говорит: «На данный момент не существует единого мнения относительно NDR – являются ли они технологией обхода антиспамовых фильтров или же побочным эффектом атаки подбора по словарю. В любом случае данная технология в настоящее время используется чаще других. Подобные волны спама обычно генерируются на основе бот-сетей, зараженных ПК, контролируемых хакерами и рассылающих спам и др. Поскольку большинство NDR – это легитимные электронные сообщения, которые являются частью функционала почтового сервера, многие традиционные антиспамовые технологии до сих пор не обнаруживают и не блокируют их». 

Решения для безопасности корпоративной сети и периметра от Panda Security включают специальные технологии для борьбы с данным типом спама. Более подробная информация: www.viruslab.ru/products/enterprise/ 

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru