Вымогатели научились писать код для атак на разные ОС на простых языках

Вымогатели научились писать код для атак на разные ОС на простых языках

Вымогатели научились писать код для атак на разные ОС на простых языках

Эксперты «Лаборатории Касперского» обнаружили две новые группы операторов программ-вымогателей. Их отличает возможность атаковать разные операционные системы без использования кросс-платформенных языков.

Одна из группировок кибервымогателей использует вредоносную программу RedAlert, которая написана на C. Вторая управляет зловредом на Delphi — Monster. Примечательно, что атаки «монстра» попались исследователям на глаза в июле 2022 года.

По словам специалистов, Monster отличается графическим пользовательским интерфейсом, причём этот компонент раньше не фигурировал в кампаниях операторов программ-вымогателей. Разработчики Monster включили нововведение как дополнительный параметр командной строки.

Две описанные Kaspersky группировки задействуют вредоносы-вымогатели для атак на системы Windows версий с 7 по 11, используя при этом эксплойты для уже пропатченных уязвимостей. Одной из таких брешей является CVE-2022-24521, которую Microsoft устранила с выходом апрельского набора патчей. Эта брешь получила 7,8 балла из 10 по шкале CVSS и позволяет повышать права в атакованной системе.

Спустя две недели после выхода заплаток киберпреступники создали два эксплойта для разных версий Windows. Это, кстати, очередное напоминание, что обновляться нужно вовремя, ведь злоумышленники постоянно пробуют использовать актуальные уязвимости.

В заметке «Лаборатории Касперского» отмечается, что современные подходы кибервымогателей требуют от компаний повышенного внимания и необходимости принимать эффективные меры для выявления и предотвращения атак.

Тот факт, что авторы программ-вымогателей научились на простых языках программирования писать код для разных ОС, в очередной раз демонстрирует их динамичное развитие.

Владельцев сайтов избавили от необходимости маркировки ИИ-контента

Из законопроекта о регулировании искусственного интеллекта (ИИ), разработанного Минцифры, убрали требование о маркировке контента, сгенерированного нейросетевыми инструментами, для владельцев онлайн-площадок. Это положение вызывало резкую критику со стороны маркетплейсов и крупных цифровых платформ.

В первоначальной версии законопроекта Минцифры владельцы онлайн-площадок должны были маркировать контент, созданный с помощью ИИ.

Маркировка должна была включать два элемента: видимое обозначение, отображаемое при просмотре или воспроизведении, а также машиночитаемую метку в метаданных.

По оценке АНО «Цифровая экономика», участниками которой являются многие цифровые платформы, выполнение этой нормы потребовало бы от владельцев онлайн-площадок фактически ручной модерации контента. Автоматизированных инструментов, которые позволяют с достаточной достоверностью выявлять такой контент без участия человека, пока нет. Это привело бы к значительным затратам.

Директор по стратегическим проектам Института исследований интернета Ирина Левова в комментарии для «Известий» сравнила целесообразность такой нормы с требованием маркировать музыку, исполненную на синтезаторе:

«Тратить огромные деньги на определение способа создания контента, который сам по себе не обязательно плох или хорош, бессмысленно. В законопроекте осталась обязанность платформ предоставить пользователям возможность сообщить, что при его создании использован ИИ. Такая модель стимулирует нормальный ответственный подход пользователей».

В RWB (Wildberries & Russ) газете назвали такую маркировку не имеющей практической ценности. По мнению компании, она могла бы усложнить пользовательский опыт и снизить удовлетворённость пользователей сервисами. Кроме того, подобные меры могут создать необоснованные барьеры для уже внедрённых решений и в целом замедлить развитие технологий ИИ.

Эксперт НТИ по технологиям ИИ Леонид Дробышевич также отметил, что необходимость маркировки порождает много вопросов, на которые не всегда можно дать однозначные ответы:

«Например, считать ли ИИ-контентом текст, который человек написал сам, но исправил с помощью нейросети? Или видео, где ИИ использовался только для шумоподавления и монтажа? Без чётких технологических критериев платформы были бы вынуждены либо модерировать с запасом, удаляя сомнительные материалы, либо массово игнорировать нарушения. Оба сценария создают риски, например чрезмерной цензуры и недовольства пользователей».

«Мера была смягчена по итогам обсуждения законопроекта с бизнес-сообществом, — прокомментировали «Известиям» в аппарате вице-премьера Дмитрия Григоренко. — Согласно текущей версии документа, обязанность по машиночитаемой маркировке аудиовизуального контента, сгенерированного с помощью ИИ, лежит на владельцах ИИ-сервисов, а конкретные случаи обязательной маркировки будут определяться правительством».

В целом, как отметил источник издания, близкий к правительству, целью поправок было снижение нагрузки на бизнес. По данным другого источника, финальный вариант законопроекта планируется внести в Госдуму до середины июля.

RSS: Новости на портале Anti-Malware.ru