Росатом создаст центр ГосСОПКА

Росатом создаст центр ГосСОПКА

Росатом создаст центр ГосСОПКА

К ноябрю 2018 года «Росатом» планирует создать и ввести в эксплуатацию систему обнаружения и предотвращения компьютерных атак в корпоративном центре ГосСОПКА. Инвестировать в подобные проекты необходимо, чтобы исполнить требования закона о защите критической информационной инфраструктуры, вступающие в силу в 2018 году.

27 ноября АО «Гринатом» (обслуживает «Росатом») завершит сбор заявок на участие в тендере по созданию системы обнаружения и предотвращения компьютерных атак в корпоративном центре ГосСОПКА «Росатома». Максимальная сумма контракта — 11,6 млн руб. Аттестация системы и запуск в эксплуатацию запланированы к 1 ноября 2018 года, следует из документации «Гринатома». В «Росатоме» и «Гринатоме» комментариев не предоставили, пишет kommersant.ru.

Для структур «Росатома» это уже второй проект в области создания системы обнаружения кибератак. В июле уранодобывающая компания «АО “Ураниум Уан Груп”» заказала разработку технического задания на создание сегмента ГосСОПКА для подключения к корпоративному центру ГосСОПКА «Росатома». Единственным поставщиком было выбрано АО «Гринатом», цена работ составила 361 тыс. руб.

Органы госвласти, госкорпорации и другие организации, относящиеся к критической информационной инфраструктуре, должны создавать корпоративные или ведомственные центры ГосСОПКА (государственная система обнаружения, предупреждения и ликвидации последствий компьютерных атак), согласно закону «О безопасности критической информационной инфраструктуры РФ», вступающему в силу в 2018 году.

Первые тендеры по созданию центров ГосСОПКА начались еще два года назад. В конце 2015 года Минэкономики заказало разработку технического решения стоимостью до 2,5 млн руб. Победителем стало ЗАО «Позитив Текнолоджиз», согласившееся выполнить работы за 1,4 млн руб. Результатом проведенных в 2015–2016 годах НИОКР стал макет комплекса средств автоматизации ведомственного сегмента ГосСОПКА, обеспечивающий деятельность сегмента в пилотной зоне, сообщила “Ъ” представитель Минэкономики Елена Лашкина. Непосредственно создание системы планируется поэтапно в течение 2018–2019 годов, сообщили в ведомстве.

Программное обеспечение компании Positive Technologies должно было использоваться и при создании системы взаимодействия корпоративного центра ГосСОПКА АФК «Система» с главным центром ГосСОПКА ФСБ РФ, следует из технического задания. АФК «Система», в портфель которой входят сотовый оператор МТС и оборонный холдинг РТИ, планировала завершить работы по созданию системы взаимодействия к 15 декабря 2017 года. Представитель АФК не стал уточнять подрядчика и стоимость проекта.

Наконец, в сентябре 2017 года МИД РФ объявил закрытый конкурс на выполнение работ по созданию ведомственного сегмента ГосСОПКА, включая поставку программных и аппаратных средств, за 90,1 млн руб. Планируемый срок окончания исполнения контракта намечен на декабрь 2019 года.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru