Банковский троян Lurk распространяется через сайт ammyy.com

Банковский троян Lurk распространяется через сайт ammyy.com

Банковский троян Lurk распространяется через сайт ammyy.com

Киберпреступники скомпрометировали официальный сайт популярного инструмента удаленного администрирования Ammyy Admin и используют его для распространения банковского трояна Lurk и других вредоносных программ.

Lurk – банковский троян, чьей целью являются российские финансовые структуры и организации. Этот вредонос действует уже на протяжении 5 лет и принес киберпреступникам порядка $45 миллионов, как считают эксперты.

Власти недавно арестовали 50 лиц, подозреваемых в использовании этой вредоносной программы и эти аресты, как полагают, привели к исчезновению набора эксплоитов Angler.

Троян Lurk часто распространялся через скомпрометированные легитимные сайты. Несмотря на то, что во многих случаях злоумышленники рассчитывали на эксплоиты, эксперты обнаружили, что они использовали и легитимное программное обеспечение.

Исследователи Лаборатории Касперского заметили, что у пользователей, ставших жертвой Lurk была установлена программа Ammy. Более детальный анализ показал, что троянец, замаскированный под файл с именем "ammyysvc.exe" был загружен вместе с установщиком Ammyy с официального сайта.

Лаборатория Касперского впервые обнаружила Lurk на сайте Ammyy в феврале 2016 года. Разработчики Ammyy были уведомлены и приняли меры, но злоумышленники либо по-прежнему имели доступ к сайту, либо скомпрометировали его снова. Таким образом, в апреле через этот сайт стала распространяться модифицированная версия Lurk, нацеленная на корпоративные сети.

Разработчики Ammyy опять попытались почистить свой сайт, однако исследователи заметили, что 1 июня через него начал распространяться троян Fareit. После этого разработчики еще раз провели зачистку, но пока непонятно, надолго ли сайт останется чистым.

По словам экспертов, злоумышленники рассчитывают на то, что администраторы ничего не заподозрят, если их системы безопасности обнаружат угрозу, учитывая, что некоторые антивирусы считают Ammyy потенциальной угрозой безопасности.

Также эксперты ESET в ноябре 2015 года обнаружили, что ammyy.com подвергся атаке со стороны кибербанды Buhtrap, которые разместили там пять различных видов вредоносных программ, включая Lurk. Кроме Lurk на сайте были размещены Corebot, Buhtrap, Ranbyus и Netwire RAT. Однако другие исследователи сообщали, что ammyy.com был скомпрометирован с июля 2015.

«Использование легального программного обеспечения в преступных целях является весьма эффективным методом распространения вредоносных программ» - говорит Василий Бердников, аналитик Лаборатории Касперского. «В первую очередь потому, что пользователи доверяют известным разработчикам и известному легальному софту.»

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru