Инсайдерство в России: диагноз - безнаказанность и латентность

Инсайдерство в России: диагноз - безнаказанность и латентность

Компания Perimetrix опубликовала результаты ежегодного исследования «Инсайдерские угрозы в России». Оставаясь на вершине обеспокоенности специалистов, в прошлом году внутренние ИТ-угрозы обнаружили ряд любопытных особенностей, что позволяет сделать следующее заключение: процесс внедрения специализированных систем защиты буксует и, в сочетании с безнаказанностью инсайдеров, стимулирует использование ими технических средств для хищения данных.

В подавляющем большинстве случаев внутренние нарушители не несут сколько-нибудь существенной ответственности. Наиболее распространённое наказание для халатных сотрудников - формальные выговоры (45%), а для злонамеренных инсайдеров – увольнение (51%) без симметричного судебного преследования или материальных взысканий. Не меньшую озабоченность вызывает и степень латентности внутренних нарушений: 42% респондентов затруднились определить количество утечек конфиденциальных данных. Это можно объяснить как нежеланием «выносить сор из избы», так и недостаточной информированностью специалистов о положении дел в корпоративных сетях.

В тройку «призёров» по степени опасности среди каналов утечки респонденты вынесли мобильные носители (70%), электронную почту (52%) и Интернет (33%). Больше всего инсайдеров привлекают персональные данные (68%), финансовые отчёты и детали конкретных сделок (40%).

Анализ динамики проникновения специализированных систем защиты от внутренних ИТ-угроз выявил противоречивую ситуацию. В прошлогоднем исследовании 34% участников заявили о планах внедрения таких систем. Однако свежие данные показали, что это желание реализовали на практике лишь 5%: общая доля таких организаций в период 2007-2008 гг. выросла с 24% до 29%. Безусловно, частично причиной этой разницы можно назвать большую трудоёмкость внедрения технологий класса РСКД или DLP (иногда этот процесс занимает несколько лет), а также неясности законодательных актов (например, закона «О персональных данных») и отсутствию чётких стандартов. Однако неоспорим факт, что в российских компаниях слово всё ещё ощутимо расходится с делом.

Впрочем, налицо и положительная тенденция. На 14% (с 49% до 35%) снизилась доля респондентов, считающих специализированные системы защиты неэффективными. В целом можно констатировать, что в ближайший год рынок внутренней безопасности продолжит свой рост, однако он вряд ли окажется слишком быстрым. Прорыва следует ожидать в среднесрочной перспективе, по мере стабилизации финансовой ситуации: 46% респондентов назвали бюджетные ограничения главным сдерживающим фактором.

С полной версией исследования можно ознакомиться по адресу:
/node/1046

ChatGPT и DeepSeek пропускают до 50% уязвимостей в софте на Java и Python

Группа компаний «Солар» проверила, насколько хорошо большие языковые модели справляются с двумя самыми трудоёмкими задачами в безопасной разработке — триажем уязвимостей и их исправлением в коде. Итог исследования получился довольно показательный: популярные общедоступные модели ускоряют работу, но пока слишком часто ошибаются, чтобы полностью на них полагаться.

Эксперты Solar appScreener протестировали шесть LLM на 20 крупных приложениях на Java и Python, каждое объёмом более 100 тысяч строк кода. Для анализа использовали как облачные модели — GigaChat 3 PRO, ChatGPT 5.2 и DeepSeek 3.2, так и локальные решения on-premise, включая ChatGPT OSS, Mistral и специализированные модели DerTriage и DerCodeFix.

Сначала с помощью SAST-анализа в проектах нашли около 12 тысяч уникальных срабатываний, из которых почти 20% пришлись на уязвимости высокой критичности. После этого все модели получили одинаковый промпт с описанием уязвимости, фрагментом кода, трассой достижимости и идентификаторами CWE.

На этапе триажа результаты оказались неровными. В Java-проектах среди облачных моделей лучше всех выступил ChatGPT с точностью 60,9%, а DeepSeek показал лишь 50%. В Python-коде картина поменялась: DeepSeek добрался до 80%+, а ChatGPT показал 52,7%. Но лучший результат среди локальных решений продемонстрировала DerTriage — более 80% точности и для Java, и для Python.

С кодфиксом ситуация похожая. Для Java ChatGPT показал 61,8% точности, DeepSeek — 45,5%. В Python их показатели составили 46,6% и 44,8% соответственно. Локальная модель DerCodeFix снова оказалась впереди: 78,2% точности на Java и 83,1% на Python.

Главный вывод исследования простой: LLM действительно экономят время, но на самых ответственных этапах безопасной разработки универсальные модели пока не дают нужной надёжности. Если команда безоговорочно доверится таким инструментам, есть риск пропустить критичные уязвимости.

В «Соларе» также напоминают ещё об одной проблеме: использование облачных моделей может стать каналом утечки исходного кода. Поэтому для задач безопасной разработки компания рекомендует смотреть в сторону локальных моделей on-premise, которые работают в закрытом контуре и всё равно требуют проверки со стороны AppSec-инженера.

RSS: Новости на портале Anti-Malware.ru