Отдельные легитимные функции открывают АСУ ТП для деструктивных атак

Отдельные легитимные функции открывают АСУ ТП для деструктивных атак

Отдельные легитимные функции открывают АСУ ТП для деструктивных атак

Новое исследование PAS показало, что у многих АСУ ТП есть функции и особенности, разработанные без учёта безопасности. По словам экспертов, киберпреступники могут задействовать эти особенности и провести деструктивные атаки.

Компания PAS, разрабатывающая решения для защиты промышленных сред, проанализировала данные, собранные на 10 000 промышленных объектах.

Исследователи выяснили, что многие АСУ ТП, используемые организациями важных секторов, содержат уязвимости и лазейки для злоумышленников. Зная эти бреши, атакующие могут нанести физический урон предприятиям и вызвать сбой в работе систем управления.

По данным PAS, на всех 10 тыс. промышленных конечных точек было обнаружено более 380 000 известных уязвимостей, основная часть которых затрагивала программное обеспечение от Microsoft. Однако это стандартные уязвимости, которые можно устранить обновлением софта или прошивки.

Куда хуже, что исследователи также выявили легитимные функции и возможности, которые можно использовать в атаках.

Эти проблемы затрагивают человеко-машинные интерфейсы, программируемые логические контроллеры и распределённые системы управления. Для их эксплуатации, по словам специалистов, злоумышленнику в большинстве случаев потребуется всего лишь сетевой доступ или базовые права.

При этом киберпреступник, конечно, должен понимать, как работает атакуемая система — в этом случае злоумышленнику не составит труда использовать особенности работы АСУ ТП.

В качестве примера SAP приводит параметр «характеристика вывода», которые есть во многих системах управления. У этого параметра имеется двоичная настройка, определяющая, работает в системе регулятор прямого или непрямого действия.

Если злоумышленник модифицирует эту бинарную настройку, он сможет одновременно атаковать сразу несколько устройств. Например, в случае с регулируемым клапанном такая атака может вызвать серьёзные повреждения.

Также эксперты указали на проблему человеко-машинных интерфейсов (HMI) — большинство используют HTML и имплементированы на объекты с повышенными правами. Такой подход позволяет атакующему внедрить вредоносный код в HMI.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru