Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

Дуров связал критику Telegram с попытками усилить цензуру и контроль в ЕС

Павел Дуров снова жёстко прошёлся по ЕС, медиа и исследователям, которые критикуют Telegram. В своём канале основатель мессенджера заявил, что европейские структуры якобы пытаются оправдать усиление слежки и цензуры, а в качестве одного из поводов используют свежие претензии к платформе.

Поводом, судя по всему, стал новый доклад организации AI Forensics и последовавшие публикации в европейских СМИ.

Как писал WIRED, исследователи AI Forensics проанализировали почти 2,8 млн сообщений в 16 испанских и итальянских телеграм-сообществах и пришли к выводу, что Telegram остаётся важной инфраструктурой для распространения незаконного контента, включая изображения интимного характера, доксинг и сервисы слежки.

Именно на это Дуров и отреагировал. В своём посте он обвинил AI Forensics, которую назвал связанным с Еврокомиссией подрядчиком, а также ряд европейских медиа в том, что они продвигают удобный для властей нарратив: будто Telegram — это проблема уже потому, что в частных группах люди обсуждают контент с других соцсетей.

По сути, Дуров представил происходящее как попытку общественного давления в пользу более жёсткого регулирования платформ. Отдельно он связал эту историю с двумя болезненными для него темами — Chat Control и DSA.

Под Chat Control обычно понимают обсуждаемые в ЕС меры, которые критики считают угрозой для конфиденциальной переписки, а DSA — это европейский закон о цифровых сервисах. Весной 2026 года Европарламент действительно поддержал более ограниченный подход к сканированию сообщений, но более широкая дискуссия вокруг постоянного регулирования всё ещё продолжается.

Сам Telegram занял ожидаемо оборонительную позицию. Представитель компании заявил, что сервис ежедневно удаляет «миллионы» единиц контента с помощью собственных ИИ-инструментов, запрещает публикацию сексуализированного контента, доксинга и продвижения незаконных услуг, а также соблюдает требования законодательства ЕС.

RSS: Новости на портале Anti-Malware.ru