CtrlHack стал победителем в треке «Управление кибербезопасностью»

CtrlHack стал победителем в треке «Управление кибербезопасностью»

CtrlHack стал победителем в треке «Управление кибербезопасностью»

CtrlHack, эксклюзивным дистрибьютером решений которого является ITD Group, стал победителем в треке «Управление кибербезопасностью» всероссийской программы «DeepTech Cybersecurity: передовые технологии кибербезопасности», инициированной Фондом «Сколково» и системообразующей компанией «РТК-Солар».

Победители отбирались на конкурсной основе. В проекте приняли участие около 100 стартапов, находящиеся на разных стадиях развития бизнеса и технологий. 15 компаний вышли в финал, из них всего 6 стали победителями – каждая в своём направлении.

Экспертный совет проводил оценку по таким показателям, как значимость решаемой проблемы и рыночный потенциал разработок, возможность запуска технологии в сервисной модели, технологическая стадия решения и опыт команды. CtrlHack набрал максимальное количество баллов в своей категории.

CtrlHack – пока что единственная платформа симуляции кибератакующих техник, разработанная в России. Она позволяет пользователю ответить на следующие вопросы: как в реальности работают средства защиты в сети, какие именно хакерские техники не детектируются, все ли необходимые данные собираются в SIEM и корректно ли формируются инциденты в SOC. Платформа не заменяет Red Team или пентесты, однако качественно дополняет их работу, проводя всеобъемлющие глубокие проверки в автоматическом режиме: на постоянной основе по всему массиву возможных атакующих техник и во всей инфраструктуре.

Количество кибератак, их сложность и наносимый ущерб растут с каждым годом. Как показывает практика, от 30% до 50% хакерских техник средствами защиты компаний, ставших объектом нападения, не детектируются. CtrlHack позволяет в разы уменьшить эти цифры без внедрения новых средств защиты.

Компания CtrlHack начала разработку своего решения в 2019 году. В 2020 году – на стадии MVP – было осуществлено первое пилотное тестирование на базе реальной инфраструктуры заказчика. С 2021 года компания ведет активное продвижение платформы и дорабатывает функционал, основываясь на обратной связи реальных пользователей.

Ядро команды – специалисты с многолетним опытом исследований в сфере информационной безопасности, разработки средств защиты и имитаций взлома корпоративных сетей. Благодаря победе во всероссийской программе «DeepTech Cybersecurity: передовые технологии кибербезопасности», команда может рассчитывать на привлечение грантовой поддержки и стратегические инвестиции, что, в свою очередь, позволит увеличить вложения в развитие продукта и его популяризацию внутри целевой аудитории.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru