Форма атаки SpiKey создаст копии ключей с помощью записанного звука

Форма атаки SpiKey создаст копии ключей с помощью записанного звука

Форма атаки SpiKey создаст копии ключей с помощью записанного звука

Специалисты Национального университета Сингапура утверждают, что им удалось найти способ взломать физические замки с помощью звука, с которым они открываются. Эта форма акустической атаки получила имя SpiKey.

Ещё в марте специалисты опубликовали исследование [PDF], в котором описывался «подбор ключа с помощью звука».

«С марта месяца мы работали над конвертацией нашего исследования в некий продукт. Так появилась SpiKey — новая форма атаки, в ходе которой используется микрофон для снятия звука поворота ключа в замке», — заявил Сундарья Рамеш, один из экспертов.

По словам специалистов, правильный захват звука микрофоном позволит вычислить форму ключа и снять цифровой слепок.

Специальный софт, написанный сотрудниками университета в Сингапуре, отслеживает временные интервалы между щелчками (когда ключ соприкасается со штифтами замка). Это позволяет определить расстояние между гребнями ключа.

Согласно замыслу специалистов, впоследствии можно использовать 3D-принтер для создания точной копии интересующего ключа.

«Наш способ SpiKey гарантирует сужение 94% ключей до 10 потенциальных ключей», — объясняют исследователи.

Однако стоит учитывать, что некоторые ключи используют специальную технику, затрудняющую отслеживание щелчков. В общем сложности вектор атаки SpiKey сработает приблизительно против 56% ключей.

Минюст раскритиковал идею тюрьмы до 15 лет за мошенничество с ИИ

Минюст усомнился в законопроекте Минцифры, который предлагает считать использование искусственного интеллекта отягчающим обстоятельством при совершении мошенничества и других ИТ-преступлений. Основная претензия — слишком размытое определение ИИ, которое может привести к путанице и противоречивой судебной практике.

Это следует из заключения на законопроект, направленного замминистра юстиции Вадимом Федоровым в Минцифры.

Документ есть в распоряжении «Ведомостей». В Минюсте подтвердили, что провели правовую и антикоррупционную экспертизу и направили свои замечания разработчикам.

В Минцифры, в свою очередь, заявили, что законопроект уже доработан с учётом комментариев других ведомств, однако уточнять, какие именно изменения были внесены, не стали.

Несмотря на позицию Минюста, 12 января 2026 года законопроект был одобрен правительственной комиссией по законопроектной деятельности. По данным источников «Ведомостей», документ может быть внесён в Госдуму уже в ближайшие дни.

О планах ввести уголовную ответственность за преступления с использованием ИИ Минцифры говорило ещё летом 2025 года. Во втором пакете антимошеннических инициатив, например, говорилось о штрафах до 2 млн рублей или лишении свободы на срок до 15 лет. Теперь эти идеи оформлены в конкретные поправки в Уголовный кодекс.

Законопроект предлагает внести изменения сразу в несколько статей УК РФ — о краже, мошенничестве, вымогательстве и преступлениях в сфере компьютерной информации. В них появляется отдельный квалифицирующий признак: совершение преступления с использованием искусственного интеллекта.

Авторы инициативы объясняют её ростом дистанционных преступлений. В пояснительной записке указано, что в 2024 году было зарегистрировано более 485 тысяч преступлений по статьям о краже и мошенничестве, а ущерб от «дистанционных хищений» превысил 197 млрд рублей.

Главная претензия Минюста — в самом определении искусственного интеллекта. В законопроекте ИИ описывается как «комплекс технологических решений», способных имитировать когнитивные функции человека и выдавать сопоставимые результаты.

По мнению ведомства, такое определение слишком широкое. Его применение потребует обязательных экспертиз практически по каждому делу, что:

  • увеличит нагрузку на экспертные учреждения;
  • повысит расходы;
  • затянет сроки расследований и судебных процессов.

Кроме того, Минюст указывает на возможную конкуренцию новых норм с уже существующими статьями УК, регулирующими преступления в сфере компьютерной информации.

Юристы и специалисты по ИБ в целом разделяют опасения Минюста. По словам экспертов, под предлагаемое определение потенциально могут попасть не только нейросети и дипфейки, но и любые инструменты анализа данных — вплоть до обычного ПО, браузеров и даже антивирусов, если они используются преступником.

При этом эксперты признают: мошенники действительно всё активнее применяют ИИ — для создания реалистичных дипфейков, массового фишинга и автоматизированных звонков. Такие атаки становятся масштабнее, незаметнее и психологически опаснее для жертв.

Минцифры продолжает активно продвигать антифрод-инициативы — это уже второй пакет мер за год. Однако история с «ИИ как отягчающим обстоятельством» показывает, что регулирование новых технологий упирается не только в желание ужесточить наказание, но и в отсутствие чётких юридических рамок.

Если закон примут в текущем виде, ключевым вопросом станет не только борьба с мошенниками, но и то, как именно следствие и суды будут понимать, что считать искусственным интеллектом.

RSS: Новости на портале Anti-Malware.ru