Positive Technologies не выполнила план по SPO

Positive Technologies не выполнила план по SPO

Positive Technologies не выполнила план по SPO

Российское SPO от Positive Technologies не нашло спроса у инвесторов. Из запланированных 3 млрд компания смогла привлечь только 1 млрд рублей. Размещение проводилось в условиях частичной мобилизации и референдумов.

SPO (secondary public offering) прошло с 19 по 27 сентября. Заявки удовлетворили 28 сентября по цене закрытия 27 сентября – 1061 руб. 80 коп., пишут “Ведомости”. Перед размещением компания рассматривала ценовой диапазон от 1200 до 1320 руб. за акцию. Акционеры планировали заработать на продаже 3,1-3,5 млрд руб.

План по повышению доли бумаг в свободном обращении (free-float) тоже выполнен частично. Positive Technologies продала 932 000 обыкновенных акций, принадлежащих крупным владельцам компании, и довела долю в свободном обращении с 10,5 до 11,9%, тогда как намеревалась разместить 2 640 000 бумаг и довести долю до 14%.

В SPO приняли участие около 10 000 инвесторов, более 90% из них – физические лица.

Накануне днем акции Positive Technologies упали на Московской бирже на 5,3% — до 995 руб., капитализация составила 66,3 млрд руб. С начала года бумаги прибавили в стоимости около 17%. Индекс Мосбиржи с момента объявления мобилизации и проведения референдумов в ЛНР, ДНР, Херсонской и Запорожской областях упал на 19%.

Размещение проведено в беспрецедентных условиях с точки зрения волатильности рынка, сообщила компания в пресс-релизе: это позволило выполнить одну из основных задач SPO по повышению free-float лишь частично.

Так как объем SPO составил 35% от максимально запланированного, общее количество продающих акционеров было сокращено. Positive Technologies продолжит предпринимать все необходимые шаги для повышения зрелости своих бумаг, повышения free-float, ликвидности и вхождения в список голубых фишек, добавил представитель компании.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru