Proofpoint: LatentBot использует Windows Troubleshooting

Proofpoint: LatentBot использует Windows Troubleshooting

Proofpoint: LatentBot использует Windows Troubleshooting

Печально известный бэкдор, поражавший организации по всему миру с 2013 года, недавно начал использовать платформу Windows Troubleshooting для распространения. Бэкдор известен под названием "LatentBot" и был обнаружен в конце прошлого года. Представляет собой модульный бот.

Эта вредоносная программа позволяет злоумышленникам осуществлять наблюдение, красть информацию и удаленно получать команды, предупреждают эксперты из Proofpoint. Более того, бэкдор оставался практически незамеченным в течение двух лет, прежде чем FireEye случайно наткнулись на него. В прошлом году вредонос успешно атаковал компании в США, Великобритании, Южной Корее, Бразилии, Объединенных Арабских Эмиратах, Сингапуре, Канаде, Перу и Польше.

В своих вредоносных кампаниях LatentBot использовал вредоносные вложения в письмах, однако исследователи Proofpoint предупреждают, что это может быть далеко не единственный метод. Как только вредоносный документ будет открыт пользователем, выскочит сообщение, утверждающее, что нужно «выполнить двойной клик мышкой для автоматического определения кодировки символов». Если пользователь сделает это, будет запущен внедренный OLE-объект.

Вредоносный объект подписан цифровой подписью DIAGCAB и пытается заставить пользователя думать, что работает от лица Windows Troubleshooting.

Исследователи в области безопасности утверждают, что методы, используемые этим бэкдором помогают избежать детектирования многим песочницами, что делает эту угрозу довольно серьезной.

Как было замечено, LatentBot устанавливает несколько плагинов для удаленного доступа, включая такие как: Bot_Engine, remote_desktop_service, send_report, security и vnc_hide_desktop.

Эксперты предупреждают, что подобная тенденция к использованию злоумышленниками все новых методов для заражения и сокрытия вредоносов в системе может иметь очень негативные последствия.

" />

Владельцев сайтов избавили от необходимости маркировки ИИ-контента

Из законопроекта о регулировании искусственного интеллекта (ИИ), разработанного Минцифры, убрали требование о маркировке контента, сгенерированного нейросетевыми инструментами, для владельцев онлайн-площадок. Это положение вызывало резкую критику со стороны маркетплейсов и крупных цифровых платформ.

В первоначальной версии законопроекта Минцифры владельцы онлайн-площадок должны были маркировать контент, созданный с помощью ИИ.

Маркировка должна была включать два элемента: видимое обозначение, отображаемое при просмотре или воспроизведении, а также машиночитаемую метку в метаданных.

По оценке АНО «Цифровая экономика», участниками которой являются многие цифровые платформы, выполнение этой нормы потребовало бы от владельцев онлайн-площадок фактически ручной модерации контента. Автоматизированных инструментов, которые позволяют с достаточной достоверностью выявлять такой контент без участия человека, пока нет. Это привело бы к значительным затратам.

Директор по стратегическим проектам Института исследований интернета Ирина Левова в комментарии для «Известий» сравнила целесообразность такой нормы с требованием маркировать музыку, исполненную на синтезаторе:

«Тратить огромные деньги на определение способа создания контента, который сам по себе не обязательно плох или хорош, бессмысленно. В законопроекте осталась обязанность платформ предоставить пользователям возможность сообщить, что при его создании использован ИИ. Такая модель стимулирует нормальный ответственный подход пользователей».

В RWB (Wildberries & Russ) газете назвали такую маркировку не имеющей практической ценности. По мнению компании, она могла бы усложнить пользовательский опыт и снизить удовлетворённость пользователей сервисами. Кроме того, подобные меры могут создать необоснованные барьеры для уже внедрённых решений и в целом замедлить развитие технологий ИИ.

Эксперт НТИ по технологиям ИИ Леонид Дробышевич также отметил, что необходимость маркировки порождает много вопросов, на которые не всегда можно дать однозначные ответы:

«Например, считать ли ИИ-контентом текст, который человек написал сам, но исправил с помощью нейросети? Или видео, где ИИ использовался только для шумоподавления и монтажа? Без чётких технологических критериев платформы были бы вынуждены либо модерировать с запасом, удаляя сомнительные материалы, либо массово игнорировать нарушения. Оба сценария создают риски, например чрезмерной цензуры и недовольства пользователей».

«Мера была смягчена по итогам обсуждения законопроекта с бизнес-сообществом, — прокомментировали «Известиям» в аппарате вице-премьера Дмитрия Григоренко. — Согласно текущей версии документа, обязанность по машиночитаемой маркировке аудиовизуального контента, сгенерированного с помощью ИИ, лежит на владельцах ИИ-сервисов, а конкретные случаи обязательной маркировки будут определяться правительством».

В целом, как отметил источник издания, близкий к правительству, целью поправок было снижение нагрузки на бизнес. По данным другого источника, финальный вариант законопроекта планируется внести в Госдуму до середины июля.

RSS: Новости на портале Anti-Malware.ru