В PT ICS добавили пакет экспертизы для обнаружения кибератак на MasterSCADA

В PT ICS добавили пакет экспертизы для обнаружения кибератак на MasterSCADA

В PT ICS добавили пакет экспертизы для обнаружения кибератак на MasterSCADA

Пакет экспертизы для комплексной платформы PT ICS позволяет выявлять киберугрозы в системах промышленной автоматизации, создаваемые «МПС софт». Обновление совместимо с новой полнофункциональной платформой MasterSCADA 4D, предназначенной для разработки средств автоматизации и диспетчеризации технологических процессов, а также поддерживает MasterSCADA 3.X.

Выявляются атаки и на OPC-серверы, которые собирают данные с контроллеров и передают системам, — Modbus Universal MasterOPC Server и Multi-Protocol MasterOPC Server.

С помощью пакета экспертизы можно обнаружить подозрительные действия, способные негативно повлиять на технологический процесс. Например, PT ICS сообщит оператору, если конфигурационный файл MasterOPC изменится, и позволит предотвратить несанкционированное отключение защитных механизмов или выбор некорректных параметров работы. Кроме того, теперь платформа выявляет нелегитимную подмену исполняемых файлов, остановку важных для производственного цикла процессов и сервисов (таких как MasterOPC Server), манипуляции с файлами MasterSCADA, стирание журналов и другие опасные действия.

Система MasterSCADA включена в реестр российского ПО и имеет свыше 100 000 инсталляций, внедрена более чем в 30 отраслях и предназначена для проектов промышленной автоматизации любого масштаба и сложности — от небольших производственных площадок до крупных, территориально распределенных комплексов.

«В 2022 году почти каждая десятая успешная атака на организации приходилась на промышленные предприятия, а число инцидентов за год выросло на 7%. В этих условиях необходимо повышать уровень защищенности SCADA-систем и другого ПО для автоматизации технологических процессов — тем более что сегодня многие учреждения оперативно переходят на новые для них отечественные продукты. Пакеты экспертизы PT ICS суммируют данные, полученные в ходе тестирований на проникновение, и опыт экспертного центра безопасности (PT ESC), позволяют обнаруживать злоумышленника на всех этапах развития атаки в промышленных средах и своевременно принимать управленческие решения», — отметил Евгений Орлов, руководитель направления информационной безопасности промышленных систем Positive Technologies.

В России хотят поставить на учет учебные материалы для ИИ-моделей

Минцифры РФ готовит законопроект, обязывающий разработчиков раскрывать сведения о наборах данных, используемых для обучения ИИ-моделей. Инициатива пока обсуждается в профильных ведомствах и сообществах игроков рынка.

Как выяснили «Ведомости», создатели подобных решений должны будут указывать наименование набора для тренинга, дату его создания, формат, объем и происхождение. В перспективе возможно создание специализированного реестра для ИИ.

Предложение выдвинуто в рамках работы правительства над регулированием сферы ИИ. Пока лишь известно, что разрабатываемый закон определит критерии российского происхождения нейросетей, закрепит право на авторство, обязанности и ответственность разработчиков, а также введет маркировку ИИ-контента.

Параллельно российские власти работают над мерами противодействия использованию ИИ в противоправных целях. Предложено даже признать применение ИИ отягчающим обстоятельством при совершении преступлений.

Предложение Минцифры о раскрытии источников обучающих данных для больших языковых моделей пока не принято на рассмотрение. Опрошенные новостным изданием эксперты сомневаются, что иностранные вендоры вроде OpenAI, Microsoft, Google, Perplexity будут соблюдать это требование.

По идее, новая инициатива должна повысить доверие к ИИ, возможность независимой оценки качества таких решений и дисциплины работы с данными. В то же время нововведение, скорее всего, потребует создания специального реестра, который будет заполняться формально из-за увеличения нагрузки на разработчиков, заинтересованных в скорейшем выводе ИИ-решений на рынок.

В то же время эксперты отметили, что в условиях дефицита качественных и юридически чистых наборов данных для обучения ИИ раскрытие их происхождения будет способствовать формированию нового коммерческого рынка.

Использование данных, взятых из открытых источников и без ведома владельцев создает риски утечки конфиденциальной информации и порождает конфликт интересов в случаях нарушения авторских прав. Подобные ситуации вынуждают создателей ИИ-моделей более внимательно относиться к подбору учебных данных и в случае необходимости покупать права на контент либо заключать договоры на использование.

В настоящее время закона, регулирующего сферу ИИ, в России нет; в законодательстве даже отсутствуют нужные определения. Освоение таких технологий пока осуществляется в соответствии с утвержденной указом Президента стратегией развития ИИ до 2030 года.

По этой причине попытки госрегулирования пока носят декларативный или рекомендательный характер. Так, в конце прошлого года было выдвинуто предложение о создании технических стандартов по ИИ и продвижение их на международном уровне.

Минцифры также определилось с требованиями к ПАК для ИИ и собирается создать киберполигон для проверки безопасности ИИ-систем, предназначенных для использования на критически важных объектах.

RSS: Новости на портале Anti-Malware.ru