Инструмент для восстановления паролей сбрасывает Sality в АСУ ТП

Инструмент для восстановления паролей сбрасывает Sality в АСУ ТП

Инструмент для восстановления паролей сбрасывает Sality в АСУ ТП

Киберпреступники заражают автоматизированные системы управления и образуют ботнет, а помогает им в этом софт-кряк для программируемых логических контроллеров (ПЛК), который якобы восстанавливает пароли.

Инструмент, о котором идет речь, рекламируется в различных соцсетях. Авторы утверждают, что с его помощью можно разблокировать терминалы ПЛК и человеко-машинного интерфейса от Automation Direct, Omron, Siemens, Fuji Electric, Mitsubishi, LG, Vigor, Pro-Face, Allen Bradley, Weintek, ABB и Panasonic.

 

Исследователи из Dragos изучили один из киберинцидентов, затронувший ПЛК DirectLogic от Automation Direct. Как показал анализ, рекламируемый «кряк» использовал известную софтовую уязвимость для извлечения пароля. Но это не самая его занимательная «фича».

В фоне инструмент копировал на устройство вредоносную программу Sality, которая известна тем, что создает одноранговый ботнет (peer-to-peer). Этот ботнет предназначен для выполнения ряда задач вроде взлома паролей и добычи криптовалюты, поэтому он полагается на распределенные вычисления зараженного устройства.

Специалисты Dragos выяснили, что эксплойт был ограничен последовательной связью. Тем не менее исследователи нашли способ воссоздать его по Ethernet, что увеличило уровень опасности.

 

Представители Dragos сразу проинформировали о проблеме Automation Direct, а вендор к его чести оперативно выпустил патчи для обозначенной уязвимости. Поскольку злоумышленники продолжают атаковать системы, администраторам ПЛК от других вендоров также стоит учитывать риски, связанные с инструментом для взлома паролей.

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru