Минпромторг готовит запрет на иностранные робонаборы для школ и вузов

Минпромторг готовит запрет на иностранные робонаборы для школ и вузов

Минпромторг готовит запрет на иностранные робонаборы для школ и вузов

Судя по заявлениям замглавы Минпромторга Василия Шпака, скоро российские школы и университеты могут попрощаться с закупками зарубежных наборов по робототехнике по ФЗ-44. Чиновник выступил на совещании в рамках форума «Электроника России 2025» и заявил: пора прекращать завозить в аудитории «иностранный зоопарк» — будем переходить на отечественную экосистему.

Когда именно запрет вступит в силу, Шпак дипломатично умолчал.

Но намекнул «Ведомостям»: министерство планирует прописать в нормативке требование закупать только российские решения, чтобы все было предельно понятно — и никакого Lego Mindstorms под видом «международного опыта».

Шпак посетовал, что школы и вузы сейчас работают в основном на зарубежных конструкторских платформах. А это, по его словам, ведёт к катастрофе примерно уровня «учим айтишников на Windows, а потом удивляемся, что они уезжают работать за границу».

Мораль проста: если молодёжь обучать на иностранном железе, они и дальше будут хотеть на нём работать — только уже не здесь.

Чтобы вдохнуть жизнь в отечественную образовательную робототехнику, ведомство поручило компаниям отрасли, ассоциациям, университетам и своему профильному департаменту разработать дорожную карту по переводу программ на российские решения.

Параллельно Минпромторг вместе с производителями и заказчиками начинает готовить унифицированные робосистемы с открытой архитектурой. Всё должно быть на отечественной элементной базе и ПО — и главное, совместимо между собой. Никаких наборов, которые «вообще-то друг с другом не дружат».

Остаётся главный вопрос: кто же первым выпустит робота, который сможет объяснить, почему он лучше зарубежного аналога, но при этом не звучать как чиновник на совещании.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru