«Антипиратский закон» вступил в силу в России

«Антипиратский закон» вступил в силу в России

Так называемый «антипиратский» закон, призванный защитить права на интеллектуальную собственность в Интернете, вступает в силу в России с 1 августа 2013 года. Пока он затрагивает лишь видео-, кино- и телевизионную продукцию, но уже в осеннюю сессию Госдума РФ планирует прописать в этом документе санкции за нелегальное распространение в сети музыки, игр и программного обеспечения.

Закон предусматривает фактически досудебную блокировку интернет-страницы, на которой предположительно размещен нелегальный контент. Правообладатель, обнаружив в сети фильм или видео, размещенное без его разрешения, вправе обратиться в Мосгорсуд с заявлением об ограничении к ним доступа. Мосгорсуд, в свою очередь, примет обеспечительные меры по блокировке интернет-ресурса, а правообладатель в течение 15 дней должен будет направить в суд официальный иск, пишет Tasstelecom.ru.

Роскомнадзор на основании решения суда в течение трех дней должен определить хостинг-провайдера и направить ему уведомление с требованием удалить нелегальные материалы. С момента получения уведомления провайдеру отводится один рабочий день на то, чтобы довести распоряжение Роскомнадзора до владельца сайта, который в течение суток обязан информацию удалить. В случае отказа или бездействия последнего хостинг-провайдер должен ограничить доступ к ресурсу не позднее трех суток с момента получения указанного уведомления.

«Подготовка к вступлению в силу Федерального закона № 187-ФЗ проведена в полном объеме», – сообщили ИТАР-ТАСС в пресс-службе Роскомнадзора. В частности, по словам представителя ведомства, налажено электронное взаимодействие с Мосгорсудом, информация о судебных решениях будет поступать максимально оперативно. «В Роскомнадзоре определен круг должностных лиц, ответственных за данное направление деятельности», – добавил собеседник агентства.

В Интернете создан специализированный сайт NAP.RKN.GOV.RU, через который правообладатели будут направлять заявления об ограничении доступа к тем или иным ресурсам. Сайт открыт с 1 августа – дня вступления в силу закона. «Информируя Роскомнадзор о пиратском контенте, правообладатель должен приложить решение суда об обеспечительных мерах. При этом, благодаря установленному с Московским городским судом электронному каналу связи проверка наличия такого решения суда будет занимать минимум времени», – подчеркнули в Роскомнадзоре.

Кроме того, Роскомнадзор договорился с правообладателями о том, чтобы при обращении в суд они указывали полный адрес размещения ресурса с пиратскими фильмами, «чтобы блокировка была максимально адресной, а добропорядочные ресурсы, которые находятся на том же IP-адресе, не пострадали».

Интернет-отрасль выступила против принятой редакции «антипиратского» закона, опасаясь злоупотреблений и блокировок добропорядочных сайтов. Российская ассоциация электронных коммуникаций (РАЭК) разработала специальный сайт RuTakedown, посвященный мониторингу правоприменения закона. На нем, в частности, владельцы сайтов смогут пожаловаться на неправомерные блокировки. Кроме того, на сайте будут размещены информационно-просветительский блок и база заблокированных сайтов.

Роскомнадзор, правообладатели, крупные интернет-площадки и операторы связи за неделю до вступления закона в силу подписали коммюнике, в котором отражено взаимодействие всех сторон в рамках реализации «антипиратского» закона. Подписи под документом поставили представители «Национальной Медиа Группы», «Арт Пикчерс Студия», «Централ Партнершип», «Первого канала», ВГТРК, «Каро Премьер», «Стар МЕДИА ГРУПП», видеосервис RuTube, операторы «Ростелеком», «ВымпелКом», «МегаФон», МТС, ТТК и другие.

Engram от DeepSeek: как LLM научили вспоминать, а не пересчитывать

Команда DeepSeek представила новый модуль Engram, который добавляет в трансформеры то, чего им давно не хватало, — встроенную память для быстрого извлечения знаний. Идея проста, но эффектная: вместо того чтобы снова и снова пересчитывать одни и те же локальные паттерны, модель может мгновенно «вспоминать» их через O(1)-lookup и тратить вычисления на более сложные задачи — рассуждения и дальние зависимости.

Engram работает не вместо Mixture-of-Experts (MoE), а вместе с ним. Если MoE отвечает за условные вычисления, то Engram добавляет вторую ось масштабирования — условную память.

По сути, это современная версия классических N-грамм, переосмысленная как параметрическая память, которая хранит устойчивые шаблоны: частые фразы, сущности и другие «статичные» знания.

Технически Engram подключается напрямую к трансформерному бэкбону DeepSeek. Он построен на хешированных таблицах N-грамм с мультихед-хешированием, лёгкой свёрткой по контексту и контекстно-зависимым гейтингом, который решает, сколько памяти «подмешать» в каждую ветку вычислений. Всё это аккуратно встраивается в существующую архитектуру без её радикальной переделки.

 

На больших моделях DeepSeek пошла ещё дальше. В версиях Engram-27B и Engram-40B используется тот же трансформерный бэкбон, что и у MoE-27B, но часть параметров перераспределяется: меньше маршрутизируемых экспертов — больше памяти Engram. В результате Engram-27B получает около 5,7 млрд параметров памяти, а Engram-40B — уже 18,5 млрд, при этом число активируемых параметров и FLOPs остаётся тем же.

Результаты предобучения на 262 млрд токенов выглядят убедительно. При одинаковом числе активных параметров Engram-модели уверенно обходят MoE-базу: снижается задержка, растут показатели на задачах знаний и рассуждений. Например, MMLU увеличивается с 57,4 до 60,4, ARC Challenge — с 70,1 до 73,8, BBH — с 50,9 до 55,9. Улучшения есть и в коде, и в математике — от HumanEval до GSM8K.

 

Отдельно исследователи посмотрели на длинный контекст. После расширения окна до 32 768 токенов с помощью YaRN Engram-27B либо сравнивается с MoE-27B, либо превосходит его  Причём иногда Engram достигает этого при меньших вычислительных затратах.

Механистический анализ тоже говорит в пользу памяти. Варианты с Engram формируют «готовые к предсказанию» представления уже на ранних слоях, а по CKA видно, что неглубокие слои Engram соответствуют гораздо более глубоким слоям MoE. Проще говоря, часть «глубины» модель получает бесплатно, выгружая рутину в память.

Авторы подытоживают: Engram и MoE не конкурируют, а дополняют друг друга. Условные вычисления хорошо справляются с динамикой и рассуждениями, а условная память — с повторяющимися знаниями. Вместе они дают более эффективное использование параметров и вычислений без ломки архитектуры.

RSS: Новости на портале Anti-Malware.ru