Новый порядок учета КИИ обойдётся операторам в 6 млрд рублей за 6 лет

Новый порядок учета КИИ обойдётся операторам в 6 млрд рублей за 6 лет

Новый порядок учета КИИ обойдётся операторам в 6 млрд рублей за 6 лет

Новый порядок отнесения объектов связи к критической информационной инфраструктуре (КИИ) потребует от операторов значительных затрат. В целом расходы отрасли на ближайшие шесть лет оцениваются в 6 млрд рублей.

Минцифры подготовило проект постановления правительства «Об утверждении отраслевых особенностей категорирования объектов критической информационной инфраструктуры в сфере связи». Документ находится на стадии согласования и должен вступить в силу с 1 сентября.

Как отмечает «Коммерсантъ», на сегодняшний день порядок категорирования объектов КИИ для связи не регламентирован. Операторы ориентируются лишь на общие положения, в соответствии с которыми самостоятельно формируют перечень таких объектов.

Согласно проекту, выявлением объектов КИИ будут заниматься специальные комиссии, формируемые внутри компаний. При этом у операторов сохраняется право не выявлять объекты КИИ вовсе.

Операторы будут обязаны передавать в ФСТЭК сведения о программном обеспечении, программно-аппаратных комплексах и средствах защиты, относящихся к КИИ. Впоследствии эти объекты подлежат категорированию — в зависимости от масштаба возможного ущерба при инцидентах.

Минцифры оценивает совокупные затраты операторов на выполнение требований проекта в 6 млрд рублей за шесть лет. По оценке опрошенных экспертов, ежегодные расходы одного оператора могут составлять сотни миллионов рублей.

Мнения операторов разделились. В пресс-службе «МегаФона» сообщили, что проект не вносит принципиальных изменений, а компания уже реализует предусмотренные меры.

В Т2, напротив, считают, что документ радикально меняет алгоритм выявления объектов КИИ. Кроме того, в компании напомнили, что перечень таких объектов может быть расширен, что усложнит соблюдение всех требований и приведёт к дополнительным расходам.

По словам источников издания, бизнес стремится сводить определение объектов КИИ к минимуму, чтобы избежать дополнительной регуляторной нагрузки и обязательств, включая ускоренное импортозамещение.

«Проблема в том, что законодательные формулировки достаточно размыты, и не всегда ясно, следует ли относить ту или иную систему к КИИ», — отметил управляющий директор по работе с госорганами Positive Technologies Игорь Алексеев.

В Минцифры не считают, что операторы будут злоупотреблять правом не признавать объекты КИИ. Расходы на реализацию требований в ведомстве оценивают как умеренные.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru