Мошенники зарабатывают миллионы на теме криптовалюты

Мошенники зарабатывают миллионы на теме криптовалюты

Мошенники зарабатывают миллионы на теме криптовалюты

В течение первой половины 2018 года решения «Лаборатории Касперского» предотвратили более ста тысяч попыток перехода пользователей на поддельные онлайн-кошельки и биржи криптовалют. Киберпреступники активно пользуются ажиотажем вокруг цифровых денег: кроме взлома криптовалютных бирж, эксплуатации уязвимостей в смарт-контрактах и использования зловредов-майнеров, мошенники прибегают и к классическим методам социальной инженерии. При этом их жертвами становятся не только старые игроки на рынке, но и те, кто только начал интересоваться этой темой.

Одна из наиболее популярных целей злоумышленников – это потенциальные ICO инвесторы (Initial coin offering – первичное размещение монет). Нередки случаи, когда киберпреступникам удаётся заполучить информацию о почтовых адресах потенциальных инвесторов определённого проекта. Тогда мошенники за некоторое время до начала старта pre-ICO рассылают фальшивые письма от лица команды проекта, в которых сообщают о старте продажи токенов и указывают адреса для перевода криптовалюты.

Также киберпреступники создают поддельные страницы, имитирующие официальные сайты ICO-проектов, и распространяют ссылки на них через электронную почту, мессенджеров, социальных сетей и рекламных объявлений в крупных поисковых системах. К примеру, путём создания фишинговых страниц, имитирующих веб-сайт ICO-проекта OmaseGo, киберпреступники смогли украсть более 1,1 миллиона долларов.

Крупнейшим по количеству привлечённых средств на сегодняшний день является ICO Telegram: слухи вокруг него спровоцировали возникновение сотни поддельных интернет-ресурсов. Более того, как выяснили эксперты «Лаборатории Касперского», адреса кошельков, на которые злоумышленники предлагали перевести средства, делались индивидуально под каждого потенциального инвестора ICO Telegram, что затрудняло отслеживание движения средств.

Ещё один популярный метод, применяемый кибермошенниками, – это предложение перевести определённую сумму в криптовалюте, чтобы получить обратно в несколько раз больше. Первую транзакцию требуют осуществить под предлогом верификации электронного кошелька. Злоумышленники, например, создавали в социальных сетях поддельные аккаунты таких известных личностей, как технологический магнат Илон Маск и основатель мессенджера Telegram Павел Дуров, и публиковали от их лица заманчивые предложения получить большую сумму.

Раздачи происходят и якобы от имени ICO-проектов: так, мошенники сделали поддельный Twitter-аккаунт, похожий на аккаунт проекта Switcheo, и разместили в нём ссылку на предложение о бесплатной раздаче цифровых монет. В результате им удалось украсть криптовалюту на сумму более 25 тысяч долларов.

Надеяться, что интерес мошенников к криптовалюте сойдет на нет, не приходится: слишком низок порог входа в «бизнес» и слишком высока прибыль. По приблизительным подсчетам экспертов «Лаборатории Касперского» на основе информации о более тысячи известных Ethereum–кошельков злоумышленников, на которые жертвы осуществляли свои переводы, за последний год киберпреступникам удалось выманить как минимум 21 000 ETH (Ethereum – популярная криптовалюта) – более 10 миллионов долларов по текущему курсу. И это сумма без учёта тех средств, которые мошенники вывели со счетов жертв самостоятельно, получив доступ к их онлайн-кошелькам.

«Киберпреступники идут в ногу со временем и следят за последними тенденциями в области информационных технологий. Поэтому неудивительно, что они не обошли стороной такие популярные темы, как криптовалюта и ICO. Однако новые схемы мошенничества здесь основаны на простых известных методах социальной инженерии, при этом они позволяют киберпреступникам зарабатывать миллионы долларов. Успех злоумышленников связан с тем, что они умеют использовать человеческий фактор, который по-прежнему является слабым звеном в кибербезопасности», – подчеркнула Надежда Демидова, ведущий контент-аналитик «Лаборатории Касперского».

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru