На рынок вышел Start EASM — продукт для управления публичными активами

На рынок вышел Start EASM — продукт для управления публичными активами

На рынок вышел Start EASM — продукт для управления публичными активами

Российская компания-разработчик решений в сфере информационной безопасности Start X (ex-Антифишинг) представила Start EASM — продукт для управления публичными техническими и человеческими активами.

К таким активам относятся публично доступные корпоративные логины и пароли, забытые служебные домены, тестовые среды, документы с конфиденциальной информацией, файлы с персональными данными клиентов.

Все они появляются в открытом доступе в результате небезопасных действий сотрудников или подрядчиков: DevOps-инженеров, разработчиков, HR-менеджеров и других коллег.

Такие активы в первую очередь находят и используют злоумышленники, чтобы проникнуть в инфраструктуру компании и получить доступ к системам и данным клиентов.

Например, они могут найти документ с данными клиентов компании в таск-трекере, к которому сотрудник открыл публичный доступ. Или выкупить забытый корпоративный домен и создать фишинговую страницу, чтобы собрать корпоративные логины и пароли для последующих целевых атак на сотрудников. 

В среднем компании не знают о 30% своих публичных активов, каждый из которых может стать причиной инцидента безопасности. Start EASM помогает заранее увидеть такие активы и устранить связанные с ними уязвимости до того, как их используют злоумышленники.

«Наш продукт помогает не только определить поверхность атаки, но и показывает связь между угрозами для компании и небезопасными действиями людей. Благодаря этому команды безопасности могут увидеть и устранить саму причину появления таких уязвимостей — через целевое обучение своих сотрудников, тренировку навыков безопасной работы и доставку актуальных требований до продуктовых команд», — говорит Сергей Волдохин, директор по продуктам экосистемы Start X.

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru