ФСТЭК России ужесточает требования к разработчикам защиты данных

ФСТЭК России ужесточает требования к разработчикам защиты данных

ФСТЭК России ужесточает требования к разработчикам защиты данных

ФСТЭК России предложил распространить требования к информбезопасности для госсектора на коммерческие компании, организующие защиту государственных данных. Для этого регулятор подготовил проект указа президента. Таких игроков на рынке много.

На проект указа президента, разработанного ФСТЭК и размещенного на портале правовых актов, обратил внимание “Ъ”.

Документ устанавливает правила защиты информации в российских организациях, а также закрепляет создание государственной организационной системы защиты информации.

Система, по замыслу ФСТЭК, будет состоять из “органов и организаций, выполняющих функции по защите информации и используемых ими средств защиты”.

Приказ также закрепляет шесть категорий участников системы, в том числе органы безопасности — ФСТЭК и ФСБ России, организации, имеющие полномочия на сертификацию средств защиты, и компании, оказывающие услуги в области защиты государственной информации.

Речь идет не обо всех участниках рынка, а о тех, кто работает с государственной информацией, что в документе называется “информацией, обладателями которой являются РФ и ее субъекты”, объясняет глава аналитического центра Zecurion Владимир Ульянов.

“То есть требования будут распространяться на подрядчиков по обеспечению безопасности государственных информсистем”, — уточняет он.

Проект серьезно расширяет круг компаний, на которые распространяются требования ФСТЭК, уточняет собеседник “Ъ” на рынке.

“В России почти все организации в области информбезопасности работают либо напрямую с госсектором, либо с организациями, которые имеют дело с информацией, конечным обладателем которой является государство”, — говорит он.

Также, по его словам, раньше требования по сертификации средств защиты информации и аттестации защищенности распространялись только на системы, имеющие статус государственных.

Указ расширяет перечень объектов, для которых сертификация и аттестация становятся обязательными.

Кроме того, добавляет источник “Ъ”, расширяется перечень систем, в отношении которых необходимо проводить анализ защищенности.

Эксперты считают, что приказ позволит обеспечить равномерный уровень защиты государственной информации, но при этом “повысит нагрузку на ответственных заместителей руководителей компаний, так как повлечет за собой больше отчетности и согласований с регулятором”.

В будущем для организаций, упомянутых в документе, могут появиться и другие обязательства.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru