На Кубани судей заподозрили в использовании ИИ

На Кубани судей заподозрили в использовании ИИ

На Кубани судей заподозрили в использовании ИИ

В Краснодарский краевой суд поступила апелляционная жалоба защиты, основанием для которой стало использование генеративного искусственного интеллекта (ИИ) при составлении судебного решения. Речь идет о приговоре Ейского городского суда в отношении двух сотрудников полиции, признанных виновными в получении взяток от торговца контрафактным алкоголем.

Как сообщает «Коммерсантъ», оба подсудимых получили по семь лет лишения свободы.

Адвокат одного из осужденных, Алексей Аванесян, обратил внимание на ряд фраз в приговоре, которые показались ему нехарактерными для судебных документов. Чтобы проверить свои подозрения, он обратился к лингвисту с просьбой определить, могли ли эти выражения быть результатом работы ИИ.

Эксперт пришёл к выводу о высокой вероятности того, что при составлении приговора действительно использовался генеративный искусственный интеллект. Среди признаков были указаны смешение стилей, несоблюдение жанровых особенностей текста, неуместность ряда слов и выражений, «пустая массивность» и «бессмысленность» некоторых конструкций, а также их «неестественность».

Этот факт стал основанием для обжалования решения в суде более высокой инстанции. В своей жалобе Алексей Аванесян особо подчеркнул, что действующее законодательство не предусматривает использование искусственного интеллекта при подготовке судебных актов.

Однако коллегия по уголовным делам не согласилась с доводами адвоката. В решении указано, что приговор «изложен в ясных и понятных выражениях», а выбранная судом стилистика «не влияет на законность решения и не противоречит нормам УПК».

«В любом случае, независимо от вопросов к стилю, объективная сторона дела остаётся неизменной. Но стороны не лишены права обжаловать приговор в кассации, если считают, что он вынесен с нарушениями», — сообщили в объединённой пресс-службе судов Краснодарского края в ответ на запрос издания.

Сам Алексей Аванесян отметил, что главной целью обжалования стало желание прояснить правовой статус применения ИИ при подготовке судебных документов.

«К сожалению, мы так и не получили прямого ответа на этот вопрос, хотя его сегодня ждут многие, — заявил адвокат. — Я, скорее, даже сторонник того, чтобы приговоры писали нейросети, ведь в этом случае они не смогут игнорировать доказательства, принимать недопустимые материалы, закрывать глаза на противоречия и несостыковки в деле, отмахиваться от показаний свидетелей или заключений экспертов. Искусственный интеллект просто не способен на это. Но если он и используется, то приговор должен быть написан им полностью — от начала и до конца, без возможности человека изымать из текста объективные, но “неудобные” фрагменты».

В Intel TDX обнаружены уязвимости с риском утечки данных

Intel вместе с Google провела масштабный аудит технологии Trust Domain Extensions (TDX), процессе которого обнаружилось немало проблем. За пять месяцев работы специалисты выявили пять уязвимостей, а также 35 багов и потенциальных слабых мест в коде.

TDX — это аппаратная технология «конфиденциальных вычислений». Она предназначена для защиты виртуальных машин в облаке даже в том случае, если гипервизор скомпрометирован или кто-то из администраторов действует недобросовестно.

По сути, TDX создаёт изолированные «доверенные домены» (Trust Domains), которые должны гарантировать конфиденциальность и целостность данных.

Проверкой занимались исследователи Google Cloud Security и команда Intel INT31. Они анализировали код TDX Module 1.5 — ключевого компонента, отвечающего за работу механизма на высоком уровне. В ход пошли ручной аудит, собственные инструменты и даже ИИ.

В результате обнаружены пять уязвимостей (CVE-2025-32007, CVE-2025-27940, CVE-2025-30513, CVE-2025-27572 и CVE-2025-32467). Их можно было использовать для повышения привилегий и раскрытия информации. Intel уже выпустила патчи и опубликовала официальное уведомление.

Самой серьёзной Google называет CVE-2025-30513. Она позволяла злоумышленнику фактически обойти механизмы безопасности TDX. Речь идёт о сценарии, при котором во время миграции виртуальной машины можно было изменить её атрибуты и перевести её в режим отладки.

Это открывало доступ к расшифрованному состоянию виртуальной машины, включая конфиденциальные данные. Причём атаку можно было провести уже после процедуры аттестации, когда в системе гарантированно присутствуют важные материалы.

Google опубликовала подробный технический отчёт (PDF) объёмом 85 страниц, а Intel — более краткое описание результатов совместной работы.

RSS: Новости на портале Anti-Malware.ru