На «Касперского» напали хакеры

На «Касперского» напали хакеры

Неизвестный хакер обнародовал 8 февраля информацию об успешном взломе американского сайта «Лаборатории Касперского», с помощью которого он получил доступ к базам данных компании, содержащим конфиденциальные данные ее клиентов. Представители «Касперского» признают, что взлом имел место, но утечки данных не подтверждают.

Американский сайт «Лаборатории Касперского» был взломан неизвестным хакером во время выходных 7-8 февраля. Хакер, личность которого установить не удалось, объявил о том, что получил доступ к базам данных, включающим имена клиентов «Лаборатории Касперского» и адреса их электронной почты, коды активации, а также списки ошибок, которые отслеживаются специалистами компании.

Информацию о своих находках хакер опубликовал на сайте Hackersblog.org, однако сообщил, что не собирается раскрывать полученные сведения. «Сотрудники «Лаборатории Касперского» могу не волноваться о том, что мы распространим их конфиденциальные данные. Мы никогда не сохраняем и не храним у себя такую информацию. Все, что мы делаем - это показываем пальцем на большие сайты, у которых наблюдаются проблемы с безопасностью», - сказано в его сообщении.

По словам хакера, доступ к базам данных «Касперского» он получил, взломав сайт с помощью простой SQL-инъекции, которая использовала уязвимость в слое баз данных приложения. Этот метод является достаточно популярным у хакеров и позволяет получать доступ к информации крупных веб-приложений или использовать популярные ресурсы для распространения вредоносного ПО. Так, с помощью этого способа в 2007 г. был взломан британский сайт компании Microsoft, сообщает Register.

Между тем, представители «Лаборатории Касперского» подтвердили, что на их американском сайте действительно была замечена уязвимость, но отказались признать потерю своих конфиденциальных данных. Как было заявлено в интервью CNews, действительно, в субботу, 7 февраля 2009 года, была обнаружена уязвимость в подразделе домена usa.kaspersky.com, когда хакеры предприняли попытку атаки на сайт. «Сайт был уязвим в течение очень небольшого периода времени, - говорят в «ЛК». - Сразу после обнаружения уязвимости мы немедленного свернули подраздел сайта, устранив уязвимость в течение 30 минут с момента обнаружения. Уязвимость не являлась критической – угроза несанкционированного доступа к данным не возникла. Это подтверждает анализ, проведенный экспертами компании. В настоящий момент идет расследование данного инцидента».

Многие специалисты отмечают, что взлом сайта «Касперского» действительно выглядит реальным. «Не могу сказать точно, но выглядит вполне правдоподобно. Мне жаль «Касперского», - отметил Роджер Томпсон (Roger Thompson), главный технолог конкурентной антивирусной компании AVG.

Напомним, что совсем недавно, в июле 2008 г., таким же способом - с помощью SQL-инъекции - был взломан малазийский сайт «Лаборатории Касперского» турецким хакером под ником m0sted. Также он взломал и интернет-магазин компании вместе с рядом субдоменов. Сам злоумышленник заявил, что причиной атаки стал «патриотизм».

 

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru