Вредонос Digmine распространяется через мессенджер Facebook

Вредонос Digmine распространяется через мессенджер Facebook

Вредонос Digmine распространяется через мессенджер Facebook

Пользователей в нескольких странах атакуют новой вредоносной программой, получившей имя Digmine. Этот вредонос устанавливает в системе пользователя майнер криптовалюты Monero и вредоносное расширение Chrome, которое помогает ему распространяться, заражая новые жертвы.

Digmine распространяется через Facebook Messenger, являющийся официальной платформой обмена мгновенными сообщениями от Facebook.

Обычно жертвы получают файл с именем video_xxxx.zip (где xxxx - это четырехзначное число), пытающийся замаскироваться под видеофайл. В архиве скрыт EXE-файл, который заражает невнимательных пользователей Digmine.

В сущности, Digmine представляет собой простенький зловред, написанный на AutoIt, из-за чего он обладает довольно ограниченным набором возможностей. Однако он может связаться с командным центром (C&C).

Южнокорейский эксперт в области безопасности, известный под именем c0nstant, также специалисты компании Trend Micro, говорят, что в настоящее время командный C&C-сервер отправляет жертвам майнер Monero и вредоносное Chrome-расширение. Digminer также добавляет механизм автозапуска с помощью реестра.

Обычно расширения Chrome можно загружать только из официального магазина расширений Chrome, но в этом случае злоумышленники устанавливают вредоносное расширение с помощью умного трюка, который использует параметры командной строки приложения Chrome.

Роль расширения заключается в доступе к профилю пользователя Facebook Messenger и передаче личных сообщений всем контактам жертвы, в которых будет содержаться уже известный нам файл video_xxxx.zip.

Механизм самораспространения, используемый этим расширением, работает только в том случае, если Chrome автоматически регистрирует пользователей в своих учетных записях Facebook. Если у пользователя нет учетных данных Facebook, сохраненных в Chrome, расширение не сможет отработать, так как не будет возможности связаться с интерфейсом Facebook Messenger.

Исследователи отмечают, что злоумышленники используют только EXE-файлы, что означает, что под угрозой подобной атаки находятся только пользователи Windows, пользователи Linux или Mac могут не беспокоиться. Судя по всему, вредоносная кампания нацелена на южнокорейских пользователей.

Компания Trend Micro связалась с Facebook, то помогло удалить вредоносные ссылки из чатов в Messenger. Однако это не мешает злоумышленникам изменить текущие каналы распространения и начать кампанию заново.

«Мы поддерживаем ряд автоматизированных систем, чтобы помочь предотвратить появление вредоносных ссылок и файлов на Facebook и в Messenger. Если мы подозреваем, что ваш компьютер заражен вредоносными программами, мы предоставим вам бесплатную антивирусную проверку от наших доверенных партнеров», — сказал представитель Facebook.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru