Взломщик из Нидерландов вымагал у разработчиков деньги

Хакера могут приговорить к 7 годам тюрьмы за взлом игры

24-летнему гражданину Нидерландов Анилу Кхеде угрожает 7-летнее заключение. Если федеральные присяжные признают его виновным во взломе и вымагательстве, которые он проводил в бесплатной текстовой многопользовательской игре Outwar.



Как сообщает Seacoast Online, Кхеда и несколько других обвиняемых неоднократно взламывали сервера Outwar, из-за чего игра простаивала на протяжении двух недель за период в девять месяцев. Из-за этого, по словам разработчиков, компания Rampid Interactive потеряла почти $100 тысяч доходов, а также не смогла получить выплаты, осуществить платежи за хостинг. Вообще, по мнению экспертов, эти атаки крайне негативно отразились на всем будущем бизнеса фирмы. Хакеры также блокировали некоторые учетные записи и присваивали себе внутри-игровые очки.

Список обвинений Кхеде и его соратников не ограничивается банальными махинациями. По словам юристов, хакер с товарищами украли исходный код Outwar и использовали его для создания конкурирующего игрового продукта под названием Outcraft. Представленный клон сумел набрать пользовательскую базу в размере 10 тысяч человек, что в 75 раз меньше, чем существующая абонентская база Outwar. Тем не менее, на своем побочном проекте хакеры смогли зарабатывать до 10 тысяч долларов в месяц.

Страница игры Outcraft.

В официальном обвинении фигурируют электронные письма, которыми Кхеда обменивался с разработчиками Outwar в 2007-2008 годах. В этих сообщениях, адресованных Rampid Interactive, Кхеда угрожал взломать сервера игры вновь, если компания не восстановит его заблокированную учетную запись или не выплатит ему дополнительно $1500. Отметим, что именно из-за этих угроз деятельностью хакера заинтересовались агенты ФБР.

Один из соучастников преступления и соратник Кхеды фигурирует в сообщениях под никами Pimpster и xPimpster1337. По словам обвинения, этот человек еще не совершеннолетний и проживает в Великобритании. Его деятельность не рассматривалась во время проведения следствия.

Исходя из сложившейся ситуации Кхеда могут приговорить к пяти годам в тюрьме по обвинениями во взломе и еще на два года по обвинениям в вымогательстве. Когда над хакером будет проводиться суд в официальных источниках не сообщается.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru