Лишь 41% российских компаний обезличивает данные

Лишь 41% российских компаний обезличивает данные

Лишь 41% российских компаний обезличивает данные

Как показало исследование ГК «Гарда», технологии обезличивания не используют в 59% опрошенных компаний. При этом бизнес заинтересован в минимизации ущерба от утечек данных на фоне усиления ответственности за такие инциденты.

Маскирование обеспечивает безопасность данных, снижает затраты на обслуживание и ускоряет бизнес-процессы, связанные с передачей данных. Как показал опрос, респонденты признают эффективность данных технологий защиты данных.

Чаще всего обезличивание требуется компаниям для безопасной передачи различных сведений подрядчикам или партнерам – это отметили 42% опрошенных, а еще 32% сказали, что технология необходима им для соответствия требованиям регуляторов.

Среди тех, кто пользуется инструментами маскирования и обезличивания данных каждый пятый (21%) полагаются на ПО собственной разработки, 17% маскируют информацию с помощью специализированных решений, а 12% обезличивают данные встроенными средствами СУБД. Решения с открытым кодом не применяет никто из участников опроса.

Половина участников опроса в качестве критерия выбора указала соответствие требованиям регуляторов. Также значимыми факторами были названы использование собственных алгоритмов (19%), а также быстродействие и возможность демаскирования (по 13%).

Участники опроса предпочитают локальные и гибридные варианты распространения ПО для маскирования данных (по 41%). Облачные версии предпочли лишь 18% респондентов.

«Обезличивание данных ‒ процесс на стыке зоны ответственности трех подразделений: ИБ, разработка и ИТ. При развитии комплекса “Гарда Маскирование” мы учитываем интересы всех трех сторон, ‒ комментирует Артемий Новожилов, архитектор систем информационной безопасности группы компаний «Гарда». ‒ Информационная безопасность получает гарантированное маскирование без возможности восстановления исходных данных, разработка выигрывает за счет высокой скорости и качества получаемых синтетических данных, а ИТ-отделы ценят простоту внедрения и поддержки решения и отсутствие влияния на работоспособность СУБД».

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru