ФСТЭК России опубликовала новый вариант методики моделирования угроз

ФСТЭК России опубликовала новый вариант методики моделирования угроз

ФСТЭК России опубликовала новый вариант методики моделирования угроз

Федеральная служба по техническому и экспортному контролю (ФСТЭК России) вынесла на обсуждение новый вариант методики моделирования угроз, отметившийся изменением самого подхода к такому моделированию.

В частности, как пишет Дмитрий Кузнецов, для организаций выстроилась цепочка действий, укладывающаяся в новый подход.

Необходимо определить те негативные последствия, которые организация считает недопустимыми => вычислить, как можно привести к таким последствиям => построить киллчейны, с помощью которых в теории можно это осуществить.

Недопустимыми негативными последствиями, например, для электрической подстанции может стать нарушение электроснабжение потребителей. Угрозой в этом случае будут считаться методы достижения этого — например, установка битой прошивки на контроллер. Киллчейн же будет представлять один из возможных сценариев реализации угрозы.

Если удастся найти хоть один работоспособный киллчейн, угрозу можно будет считать актуальной, и от неё придётся защищаться.

Помимо этого, согласно новому варианту методики, теперь нельзя просто отбиться изолированностью сети и неактуальностью кибератак. Придётся продемонстрировать, что потенциальный атакующий не сможет добраться до вашей сети.

Также при моделировании угроз нужно учитывать меры защиты и возможные проблемы в применении этих средств. Чётко даётся понять, что сами по себе меры защиты не являются панацеей от реализации угроз.

Роботов можно взломать голосом и превратить в оружие за минуты

Коммерческие роботы оказались куда уязвимее, чем принято считать. Эксперты по кибербезопасности предупреждают: некоторые модели можно взломать за считаные минуты, причём без сложных инструментов — достаточно голоса или беспроводного соединения.

Это наглядно продемонстрировали китайские исследователи в недавних тестах и на хакерских соревнованиях GEEKCon в Шанхае.

Специалисты показали, как уязвимости в роботах позволяют получить полный контроль над машиной, а затем распространить атаку на другие устройства поблизости.

Оказалось, что современные гуманоидные роботы можно буквально «перехватить» с помощью голосовых команд. В ходе эксперимента был использован коммерческий робот Unitree стоимостью около 100 тысяч юаней (примерно $14,2 тыс.), оснащённый встроенным ИИ-агентом для автономного управления и взаимодействия с человеком.

Из-за уязвимости в системе управления исследователям удалось обойти защитные механизмы и получить полный контроль над роботом, пока тот был подключён к интернету. Но на этом эксперимент не закончился. Уже взломанный робот передал эксплойт другому устройству — даже без подключения к Сети, используя беспроводную связь на короткой дистанции. Через несколько минут второй робот также оказался под контролем атакующих.

Чтобы показать, что речь идёт не о теоретических рисках, исследователи дали роботу агрессивную команду. Машина двинулась к манекену на сцене и ударила его. Демонстрация стала наглядным напоминанием: даже отключение от интернета не гарантирует безопасность, если роботы работают в группе.

Проблемы с безопасностью роботов Unitree всплывали и ранее. В октябре исследователи сообщили об уязвимости в Bluetooth, которая позволяет получить root-доступ по воздуху. Это открывает путь к созданию своеобразных «робо-ботнетов», когда один взломанный робот заражает остальные.

В отличие от классических кибератак, где последствия ограничиваются утечками данных или финансовыми потерями, взлом роботов несёт прямую физическую угрозу. По мере того как машины становятся мобильнее и автономнее, они потенциально могут причинить вред людям или нарушить работу критически важных процессов.

Как отмечает South China Morning Post, пока интеллектуальные роботы в основном используются в демонстрационных зонах, офисах и учебных проектах. Но их всё чаще рассматривают для задач в инфраструктуре, медицине, охране и уходе за пожилыми людьми — и здесь цена ошибки резко возрастает.

Эксперты предупреждают: взломанный домашний робот может тайно собирать конфиденциальную информацию или представлять угрозу для жильцов. В промышленности скомпрометированные машины способны выводить из строя производственные линии, вызывать остановки и даже приводить к жертвам. А в случае автономного транспорта речь может идти уже не о сбое, а о целенаправленно «вооружённой» системе.

RSS: Новости на портале Anti-Malware.ru