Российские ученые предложили метод защиты голосовых данных

Российские ученые предложили метод защиты голосовых данных

Российские ученые предложили метод защиты голосовых данных

Группа исследователей из AIRI, МТУСИ, «Сбера» и VeinCV представила новый метод защиты голосовых данных. Технология предотвращает сбор биометрии и её последующее использование для генерации дипвойсов.

Разработка опубликована в открытом доступе, а также принята к публикации на конференции Interspeech 2025, которая пройдёт в Роттердаме.

Метод основан на использовании универсальных состязательных патчей, встроенных в аудиофайлы перед их публикацией. Эти патчи препятствуют работе алгоритмов, предназначенных для сбора и анализа голосовой биометрии.

Именно такие алгоритмы применяются для автоматического получения голосовых образцов, которые могут использоваться для обхода систем идентификации, создания дипвойсов или скрытого сбора информации о людях и организациях без их согласия. Особенно уязвимы в этом контексте цифровые аудиозаписи — подкасты, лекции, интервью, архивы вебинаров и конференций.

Внедрение патчей делает голосовые данные неидентифицируемыми для автоматизированных систем, при этом не ухудшая качество звука. Технология не мешает работе сервисов транскрибирования, перевода и поиска, и может применяться к аудиофайлам любой длины.

«Наша цель — усилить методологию защиты цифрового следа человека в публичном пространстве, прежде всего — его голосовой идентичности. Разработанное решение позволяет свободно делиться аудиоконтентом, значительно снижая риск того, что голос станет сырьём для несанкционированного сбора биометрии или создания дипфейков», — отметил Олег Рогов, к.ф.-м.н., руководитель лаборатории безопасного ИИ SAIL AIRI–МТУСИ.

Пользователи Windows нашли способ отключить автозагрузку ИИ в Chrome

Пользователи Windows 11 могут отключить автоматическую загрузку локальных ИИ-моделей в Google Chrome и Microsoft Edge через настройку реестра. Новый метод стал актуален после сообщений о том, что Chrome автоматически скачивает ИИ-модели объёмом до 4 ГБ без явного согласия пользователя.

У Edge, который тоже основан на Chromium, есть похожий механизм. Для управления им Microsoft добавила политику GenAILocalFoundationalModelSettings. Она предназначена в первую очередь для организаций, но может пригодиться и обычным пользователям Windows 11 Pro.

Если политика включена в режиме Allowed (0), браузер может автоматически загружать и использовать локальную ИИ-модель для обработки запросов на устройстве. Если установить значение Disallowed (1), загрузка будет запрещена, а уже скачанная модель должна быть удалена с устройства.

Для Edge параметр можно прописать в ветке реестра:

HKLM\SOFTWARE\Policies\Microsoft\Edge

Для Chrome:

HKLM\SOFTWARE\Policies\Google\Chrome

В обоих случаях нужно создать или изменить параметр GenAILocalFoundationalModelSettings и установить значение 1.

Через командную строку это выглядит так:

reg add "HKLM\SOFTWARE\Policies\Microsoft\Edge" /v "GenAILocalFoundationalModelSettings" /t REG_DWORD /d 1 /f

Для Chrome:

reg add "HKLM\SOFTWARE\Policies\Google\Chrome" /v "GenAILocalFoundationalModelSettings" /t REG_DWORD /d 1 /f

Интересный момент: политика поддерживает динамическое обновление, то есть администраторам не обязательно перезапускать браузер после изменения настройки.

Если параметр не задан, Chrome версии 147 и новее должен по умолчанию автоматически скачивать и использовать модель. В Edge поведение пока отличается. Поддержка политики заявлена для Windows 11 и macOS начиная с Edge 132, а для Android — с версии 147. iOS пока не поддерживается.

RSS: Новости на портале Anti-Malware.ru