Банковский троян Dyre распространяется по факсу

Троян Dyre атакует американские компании

Эксперты по безопасности фирмы Bitdefender обнаружили кампанию по рассылке электронных писем с банковским трояном Dyre. Злоумышленники рассылают уведомления о получении электронных факсов американским пользователям. Цель злоумышленников – заражение ПК, установленных в компаниях и корпорациях.

Несмотря на преимущества электронной почты, передачей документов в цифровом формате с помощью электронного факса до сих пор пользуются компании по всему миру. На электронную почту отправляются уведомления со ссылкой на новые факсы. Ссылка в хакерском письме ведёт к заархивированному файлу, который содержит исполнимый модуль, замаскированный под PDF-документ. Вместо факса пользователь получает загрузочную программу, которая скачивает на ПК банковский троян Dyre, также известный как Dyreza.

По словам представителей Bitdefender, злоумышленники надёжно скрыли сущность файла от антивирусного софта. Для этого они использовали технику серверного полиморфизма. Данный метод заключается в том, что файл автоматически кодируется и маскируется перед загрузкой с вредоносного сервера. В Bitdefender подсчитали, что всего за день преступники разослали 30 тыс. писем со спам-серверов в Канаде, Великобритании, США, России, Турции и Франции.

Специалисты выяснили, что операцию проводят под названием «2201us». Это может указывать на её начало 22 января и на то, что цель злоумышленников – компании в США. Троян активизируется, как только владелец зараженного ПК заходит на вебсайты известных банков Австралии, Великобритании, Германии, Ирландии, Италии, Румынии и США,

Компании нередко открывают счета в нескольких финансовых учреждениях для более качественных денежных транзакций. Dyre подключается к веб-браузеру через бреши безопасности. Троян перехватывает трафик между заражённой системой и банком, способен изменять содержимое веб-сайта в прямом времени. Таким образом злоумышленники могут предоставить жертве ложные данные о состоянии счёта.

Недавно был найден новый вариант Dyre, который умеет взламывать почтовый клиент Microsoft Outlook. Это делалось для распространения Upatre – софта, способного скачивать другие вредоносные программы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru