200 000 конфиденциальных файлов клиентов Abbyy были в открытом доступе

200 000 конфиденциальных файлов клиентов Abbyy были в открытом доступе

200 000 конфиденциальных файлов клиентов Abbyy были в открытом доступе

Некорректно сконфигурированный сервер MongoDB, принадлежащий Abbyy, разработчику решений в области распознавания текстов и лингвистики, открыл публичный доступ к файлам клиентов компании. Об этом сообщил независимый исследователь в области кибербезопасности Боб Дьяченко.

19 августа Дьяченко обнаружил базу данных, размещенную на облачной платформе Amazon Web Services (AWS). Эта база была размером 142 Гб, а доступ к ней был открыт без необходимости входа в систему.

Информация, содержащаяся в базе, включала отсканированные документы конфиденциального характера: контракты, соглашения о неразглашении, внутренние письма и пометки.

Всего исследователь насчитал 200 000 файлов клиентов Abbyy, которые в свое время отсканировали эти данные и загрузили в облако.

«Некоторые имена файлов вроде “documentRecognition” или “documentXML”, найденные в базе, наталкивают ан мысль о том, что они являются частью инфраструктуры предприятия», — пишет Дьяченко у себя в блоге.

Доказательством того, что это данные принадлежат Abbyy, служат поля, где перечислены имена пользователей и корпоративные адреса электронной почты. Там же можно было найти зашифрованные пароли.

Дьяченко уточнил, что спустя два дня после того, как он уведомил компанию, команда безопасности Abbyy ограничила доступ к конфиденциальным данным. Есть все основания полагать, что скомпрометированная информация могла попасть в руки третьих лиц.

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru