Платформа CICADA8 ETM теперь выявляет утечки кода и персональных данных

Платформа CICADA8 ETM теперь выявляет утечки кода и персональных данных

Платформа CICADA8 ETM теперь выявляет утечки кода и персональных данных

Компания CICADA8 обновила модуль «Защита бренда» в своей платформе CICADA8 ETM, предназначенной для мониторинга уязвимостей и цифровых угроз. Теперь система умеет находить в открытых источниках фрагменты исходного кода приложений заказчиков, а также отслеживать информацию, указывающую на возможные атаки на топ-менеджмент компаний.

Модуль мониторит популярные публичные репозитории — GitHub, GitLab, Bitbucket — и фиксирует публикацию кода, принадлежащего заказчику.

Это помогает вовремя выявить утечки паролей, ключей, токенов и других чувствительных данных, которые могут случайно оказаться в открытом доступе. Поиск выполняется несколько раз в день, а результаты отображаются в личном кабинете платформы.

«До запуска обновления на рынок мы провели ряд пилотных проектов для наших заказчиков. Уже на этом этапе решение продемонстрировало свою эффективность. В одном случае мы нашли в открытом доступе исходные коды, в котором были найдены учетные записи к сервису, хранившему персональные данные зарегистрировавшихся пользователей. В ходе другого проекта в публичном репозитории были найдены учетные данные BI-системы. Их обнаружение злоумышленниками могло привести к компрометации корпоративных данных, и, как следствие, к утечке и даже утрате компанией чувствительных данных. Поэтому можно с уверенностью сказать, что контроль исходного кода, публикуемого на общедоступных ресурсах, — актуальная задача для всех организаций, которые ведут собственную разработку», — отметил Сергей Колесников, директор продуктового портфеля и сервисов CICADA8.

В обновлении также появилась функция отслеживания киберрисков, связанных с топ-менеджментом. Поскольку руководители компаний имеют доступ к самой конфиденциальной информации, их учётные записи и личные данные часто становятся целью хакеров. Теперь система может быстро находить персональные или иные чувствительные сведения о топ-менеджерах в СМИ, соцсетях и на теневых форумах даркнета.

Кроме того, CICADA8 ETM продолжает выполнять задачи по мониторингу защищённости внешнего периметра, поиску и блокировке фишинговых страниц, отслеживанию утечек и публикаций об инцидентах информационной безопасности в СМИ, социальных сетях и даркнете. Это позволяет компаниям быстрее реагировать на потенциальные угрозы.

В декабре мы публиковали обзор CICADA8 ETM, в котором рассмотрели функциональные возможности, архитектуру и сценарии применения.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru