На конференции «Гарды» обсудят будущее киберугроз и защиту данных в 2026

На конференции «Гарды» обсудят будущее киберугроз и защиту данных в 2026

На конференции «Гарды» обсудят будущее киберугроз и защиту данных в 2026

За первые шесть месяцев 2025 года в России зафиксировали 35 утечек персональных данных. В результате «утекло» больше 39 миллионов записей. И что важно — в 68% случаев виноват оказался человеческий фактор. Исследование hh.ru и Staffcop показало, что 38% сотрудников компаний никогда не проходили обучение по правилам информационной безопасности.

А у более чем 10% бывших сотрудников доступ к корпоративным системам сохраняется даже после увольнения. Всё это только подтверждает: защита данных давно уже не вопрос отдельных отраслей, а задача абсолютно каждой организации.

По данным центра компетенций «Гарда», в 2025 году киберпреступники по-прежнему активно используют социальную инженерию, фишинг и атаки на цепочки поставок. Всё чаще они подключают искусственный интеллект — и для проверки кода при создании зловредов, и для автоматизации атак. К тому же растёт число DDoS-атак, и в 2024 году до 40% из них имели идеологический подтекст.

«Ежегодно конференция “Гарда: Сохранить все. Безопасность информации” становится площадкой для открытого диалога между стейкхолдерами по вопросам защиты данных, ‒ говорит бизнес-партнер по инновационному развитию в Департаменте продуктового развития группы компаний «Гарда» Лука Сафонов. ‒ Эксперты рынка ИТ- и ИБ-, регуляторы, которые сегодня определяют стратегическое развитие отрасли, разрабатывают действенные решения для сложных задач защиты данных, ведь их потеря влечет не только убытки, но и снижение доверия со стороны клиентов и партнеров».

В программе конференции — пленарное заседание с участием министра цифрового развития и руководителей крупнейших компаний, прогнозы по киберугрозам на 2026 год, презентация новых технологий для защиты данных и «открытый микрофон» с представителями Минцифры, СМИ и отраслевых объединений.

Конференция пройдёт 16 октября в конгресс-центре Soluxe (Москва, ул. Вильгельма Пика, 16).
Участие бесплатное, но нужна предварительная регистрация.

[Регистрация на мероприятие!]

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru