Выручка Positive Technologies за I полугодие 2022 составила 3,5 млрд руб.

Выручка Positive Technologies за I полугодие 2022 составила 3,5 млрд руб.

Выручка Positive Technologies за I полугодие 2022 составила 3,5 млрд руб.

Positive Technologies опубликовала финансовые показатели за второй квартал и первое полугодие 2022 года. Оказалось, что объём продаж компании вырос на 72% — с 1,8 до 3,1 млрд рублей (сравнивали с аналогичным периодом 2021-го).

Также стало известно, что валовая прибыль компании показала уверенный рост на 110% во втором квартале и на 77% — по итогам первого полугодия. EBITDA добрался до 685 млн рублей (увеличение в 4,4 раза).

Чистая прибыль Positive Technologies зафиксировалась на отметке в 381 млн рублей, подчеркнули в компании.

Ключевыми продуктами для Positive Technologies стали MaxPatrol SIEM (доля — 29%), MaxPatrol 8 (14%) и PT Application Firewall (9%). Однако, если смотреть на результаты всех продуктов, существенные темпы роста продаж демонстрирует каждый из них:

  • PT Network Attack Discovery (+236% по сравнению с первым полугодием 2021 года);
  • PT Application Inspector (+132%);
  • PT Application Firewall (+124%);
  • MaxPatrol VM (новый продукт);
  • MaxPatrol SIEM (+63%);
  • PT Multiscanner / PT Sandbox (+22%);
  • Услуги в области ИБ (+128%);
  • Техническая поддержка (+52%).

В Positive Technologies также представили ключевые операционные и финансовые показатели по итогам второго квартала и шести месяцев 2022 года:

 

II кв. 2022 года

II кв. 2021 года

Изменение, %

6 мес. 2022 года

6 мес. 2021 года

Изменение, %

Выручка, тыс. руб.

2 119 288

1 036 625

104%

3 508 035

1 965 762

78%

Себестоимость продаж, тыс. руб.

(373 206)

(207 026)

80%

(638 505)

(346 070)

85%

Валовая прибыль, тыс. руб.

1 746 082

829 599

110%

2 869 530

1 619 692

77%

Валовая рентабельность, %

82%

80%

2 п.п.

82%

82%

0 п.п.

Операционные расходы, тыс. руб.,

в том числе:

- Расходы на исследования и разработки,

- Маркетинговые и коммерческие расходы,

-Общехозяйственные и административные расходы

(1 494 507)

 

 

(329 085)

 

 

(780 524)

 

 

(349 337)

(970 396)

 

 

(203 132)

 

 

(454 768)

 

 

(309 562)

54%

 

 

62%

 

 

72%

 

 

13%

(2 524 082)

 

 

(567 147)

 

 

(1 224 266)

 

 

(676 408)

(1 758 538)

 

 

(483 831)

 

 

(688 171)

 

 

(581 271)

44%

 

 

17%

 

 

78%

 

 

16%

Операционная прибыль, тыс. руб.

251 575

 

(140 797)

 

не применимо

345 448

 

(138 846)

 

не применимо

Операционная рентабельность, %

12%

 

(14%)

 

26 п.п.

10%

 

(7%)

 

17 п.п.

Финансовые доходы и расходы, тыс. руб.

3 537

 

(12 703)

 

не применимо

20 194

 

(14 586)

 

не применимо

Прибыль до налогообложения, тыс. руб.

255 112

 

(153 500)

 

не применимо

365 642

 

(153 432)

 

не применимо

Расходы по налогу на прибыль, тыс. руб.

(19 785)

 

(16 583)

 

19%

15 677

 

(27 141)

 

не применимо

Чистая прибыль, тыс. руб.

235 327

 

(170 083)

 

не применимо

381 319

 

(180 573)

 

не применимо

Рентабельность чистой прибыли, %

11%

 

(16%)

 

не применимо

11%

 

(9%)

 

не применимо

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru