Эксперты проверили надёжность криптографической защиты системы ДЭГ

Эксперты проверили надёжность криптографической защиты системы ДЭГ

Эксперты проверили надёжность криптографической защиты системы ДЭГ

В рамках подготовки к единому дню голосования 2023 года компания «Криптонит», входящая в «ИКС Холдинг», провела исследование трёх криптографических механизмов, используемых в федеральной системе дистанционного электронного голосования (ДЭГ).

Первый механизм, рассмотренный в исследовании, предназначен для сокрытия промежуточных результатов и ускорения подсчета голосов.

Он использует шифрование с открытым ключом, гомоморфное относительно операции сложения. Так можно суммировать голоса избирателей с максимальной конфиденциальностью — в зашифрованном виде. А высокую эффективность системы обеспечит более быстрая в сравнении с операцией сложения дешифровка.

Второй механизм основан на протоколе доказательства с нулевым разглашением Чаума-Педерсена и применяется для подтверждения правильности расшифровки суммы голосов. Здесь задача — доказать правильность дешифровки без раскрытия ключа.

Третий механизм основан на дизъюнктивной версии протокола доказательства с нулевым разглашением Чаума-Педерсена и применяется в ДЭГ для доказательства правильности содержимого каждого избирательного бюллетеня.

Он контролирует, чтобы система не принимала бюллетени, с которыми избиратель провел несанкционированные манипуляции, например отметил несколько кандидатов, когда допускается выбор только одного. Проблема заключается в том, что бюллетень зашифровывается на устройстве избирателя, и система не может просто проверить его содержимое. Протокол доказательства с нулевым разглашением позволяет убедиться в корректности зашифрованного бюллетеня, сохраняя при этом конфиденциальность голосования.

Главный архитектор ДЭГ компании «Ростелеком» Юрий Сатиров отметил:

«Криптографические механизмы, лежащие в основе российской системы ДЭГ, активно разрабатываются мировым научным сообществом, однако их применение в системах государственного уровня требует дополнительных исследований в области безопасности. Поэтому мы привлекли отечественных экспертов в области криптографии из компании 'Криптонит' для более детального изучения вопросов криптографической защиты нашей системы».

В результате работы была создана формальная модель атакующего, которая помогла подготовить математическое обоснование стойкости применяемых криптографических механизмов в системе ДЭГ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru