Китайская APT-группа атаковала целевым фишингом ЦКБ МТ Рубин

Китайская APT-группа атаковала целевым фишингом ЦКБ МТ Рубин

Китайская APT-группа атаковала целевым фишингом ЦКБ МТ Рубин

Исследователи из команды Cybereason Nocturnus, следя за активностью операторов эксплойт-билдера RoyalRoad (8.t Dropper/RTF), вышли на интересную кампанию китайской APT-группировки. Оказалось, что целевые атаки киберпреступников были направлены на российскую оборонку.

Сначала специалисты обнаружили новые образцы RoyalRoad, которые на тот момент уже использовались в реальных кибератаках. Один из таких семплов поразил экспертов не совсем типичным поведением: он доставлял жертвам бэкдор PortDoor, ранее не попадавший в руки исследователей.

Изучив вредонос подробнее, специалисты пришли к выводу, что его операторы, скорее всего, действуют в интересах китайского правительства. Однако вишенкой на торте стало обнаружение основной цели APT-группировки — Центрального конструкторского бюро морской техники «Рубин». 

Как известно, это одно из основных российских предприятий, занимающихся проектированием подводных лодок. С 1938 года ЦКБ МТ «Рубин» тесно связано с военно-морскими силами России и, соответственно, является привлекательной мишенью для правительственных киберпреступников.

На первом этапе атак китайская APT-группа использует целевой фишинг. Например, одно из таких писем пришло на имя генерального директора ЦКБ МТ «Рубин» — Игоря Владимировича Вильнита.

 

В письме содержалось вредоносное вложение в виде RTF-файла, оснащённого пейлоадом RoyalRoad. Согласно метаданным, этот файл был создан в 2007 году, однако злоумышленники часто меняют эти сведения, чтобы запутать исследователей или защитные механизмы.

После запуска RTF-файла на компьютер жертвы помещался документ Microsoft Word — использование этого формата также обусловлено желанием обойти детектирование. Далее в дело вступал ранее неизвестный бэкдор под именем «winlog.wll».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники под видом соцопросов собирают данные для дипфейков

Одной из целей массовых телефонных опросов от имени различных исследовательских организаций и центров социологии становится сбор голосовых образцов для создания дипфейков.

Об этом РИА Новости рассказала заместитель директора по продуктам VisionLabs Татьяна Дешкина.

По её словам, чтобы создать качественную голосовую подделку, злоумышленникам требуется запись продолжительностью не менее 20 секунд, при этом голос должен звучать ровно, без интонаций и посторонних шумов. Поэтому их цель — удержать собеседника на линии как можно дольше. Тематика социологических опросов служит удобным прикрытием для такой активности.

Для придания естественности и обхода защитных механизмов мошенники часто добавляют в запись дополнительные звуковые эффекты — например, имитацию плохой связи или фоновый шум. Как подчеркнула Татьяна Дешкина, эти особенности приходится учитывать при разработке новых версий систем для распознавания дипфейков.

Наибольшую опасность представляют так называемые комбинированные дипфейки — когда синтезированный голос накладывается на поддельное изображение или видео. Такие фальсификации используются для создания фейковых профилей в социальных сетях и мессенджерах, через которые отправляются сообщения якобы от имени реальных людей. Распознать такую подделку крайне сложно. Однако, по словам эксперта, в силу сложности реализации подобные атаки пока не получили массового распространения.

«Финансовые организации и государственные сервисы могут защитить пользователей с помощью многофакторной аутентификации и систем обнаружения дипфейков. В ближайшем будущем мобильные устройства, соцсети и мессенджеры, скорее всего, тоже получат встроенные технологии для распознавания контента, созданного с помощью нейросетей», — подытожила Татьяна Дешкина.

Во второй пакет антимошеннических инициатив, который планируется внести в Госдуму осенью, с большой вероятностью включат поправки в Уголовный кодекс. Они предполагают признание использования технологий искусственного интеллекта, включая дипфейки, отягчающим обстоятельством при совершении преступлений. Такая мера предлагается на фоне стремительного роста преступлений с применением ИИ, особенно заметного в 2025 году.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru