Positive Technologies: отгрузок на 3,8 млрд, долг к EBITDA снизился до 1,92

Positive Technologies: отгрузок на 3,8 млрд, долг к EBITDA снизился до 1,92

Positive Technologies: отгрузок на 3,8 млрд, долг к EBITDA снизился до 1,92

Компания Positive Technologies (MOEX: POSI) опубликовала финансовые и управленческие итоги за первые три месяца 2025 года. Объём отгрузок составил 3,8 млрд рублей — это больше, чем в прошлом году за тот же период, когда было 1,8 млрд.

Главная цель на 2025 год — вернуться к стабильному росту и сохранить рентабельность.

Ради этого компания изменила структуру отдела продаж, пересмотрела систему мотивации сотрудников и продолжает активно расширять клиентскую базу — теперь не только среди крупных компаний, но и в региональном бизнесе. Также увеличились продажи действующим клиентам, в том числе в крупных корпорациях и холдингах. На рост продаж повлияли и такие факторы, как запуск нового продукта PT NGFW, развитие проектов по построению ИБ и выход на зарубежные рынки.

Замгендиректора Максим Филиппов отметил, что первый квартал обычно не показатель для всего года, но старт оказался неплохим: команда продаж работает уверенно, и в компании оптимистично смотрят на будущее.

Кроме того, компания провела аудит эффективности всех подразделений и обновила подход к управлению. Численность персонала осталась на уровне середины 2024 года — около 2700 человек.

В бюджете на 2025 год применили осторожный подход, что позволило сократить расходы, включая маркетинг и организацию мероприятий. Это уже дало ощутимый эффект.

Также снизили долговую нагрузку: соотношение чистого долга к EBITDA уменьшилось до 1,92 (в конце 2024 года было 2,97). Компания досрочно продлила часть краткосрочных кредитов и теперь делает ставку на более устойчивые долгосрочные облигации — они уже составляют 64% от общего долга. Высокие кредитные рейтинги дают возможность привлекать средства на приемлемых условиях.

Сейчас Positive Technologies активно готовится к своему ежегодному фестивалю по кибербезопасности — Positive Hack Days Fest, который пройдёт в Лужниках с 22 по 24 мая. В этом году приедут делегации из 41 страны. Программа включает международную кибербитву Standoff и День инвестора 23 мая. Несмотря на то что мероприятие будет масштабным, компания планирует уложиться в 75–80% прошлогоднего бюджета — часть расходов покроют партнёры и спонсоры.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru