КИС СОЮ стала причиной обысков в КРОК и Ланит

КИС СОЮ стала причиной обысков в КРОК и Ланит

КИС СОЮ стала причиной обысков в КРОК и Ланит

Вчерашние обыски, прошедшие в двух российских ИТ-компаниях, были инициированы ФСБ России в рамках расследования дела о завышении стоимости контрактов при разработке комплексной информационной системы судов общей юрисдикции Москвы (КИС СОЮ) и её подсистем.

По данным источников РБК, следственные мероприятия проводятся по уголовному делу, возбужденному ещё в 2014 году по факту хищений при поставках оборудования и программного обеспечения для Судебного департамента.

Отмечается, что часть поставленных систем до сих пор остаётся в эксплуатации.

Как сообщил источник, близкий к компании «КРОК» (в московском офисе которой вчера прошли обыски), сотрудники правоохранительных органов искали документацию, связанную именно с проектом КИС СОЮ. При этом все договоры, изъятые сотрудниками ФСБ, ранее успешно прошли проверки в нескольких контрольных органах, включая Счётную палату.

Представители компании «Ланит» (где тоже проходили обыски) также подтвердили, что передали следствию документацию по одному из проектов прошлых лет, однако не стали уточнять, о каком именно проекте идёт речь.

Заместитель министра цифрового развития Вологодской области Ахметжан Махмутов прокомментировал ситуацию, отметив, что такие обыски являются частью общего тренда на ужесточение государственного контроля над стратегическими цифровыми проектами.

По его мнению, государство сочетает проверки финансовой дисциплины с оценкой киберустойчивости. Для рынка это сигнал о том, что работа с госзаказами требует не только высокого уровня технической компетенции, но и строгого соблюдения установленных правил, особенно в условиях повышенных рисков.

КИС СОЮ, по оценке Махмутова, является значимым элементом национальной безопасности, и любые ошибки подрядчиков способны существенно нарушить работу судебной системы.

Внедрение системы КИС СОЮ началось в 35 судах общей юрисдикции Москвы в 2015 году и было полностью завершено в декабре 2017 года. Общий бюджет проекта составил около 2,5 млрд рублей, финансирование осуществлялось Международным банком реконструкции и развития в рамках программы поддержки судебной реформы.

КИС СОЮ является частью системы электронного правосудия, позволяющей подавать судебные иски онлайн, знакомиться с судебной документацией и следить за трансляциями судебных заседаний.

Основным подрядчиком проекта выступала компания «КРОК», а компания «Ланит» разрабатывала одну из подсистем.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru