В MAX ответили на слухи о «прослушке» звонков нейросетью

В MAX ответили на слухи о «прослушке» звонков нейросетью

В MAX ответили на слухи о «прослушке» звонков нейросетью

Вокруг национального мессенджера MAX разгорелась новая дискуссия о приватности звонков. Поводом стал пост пользователя Pikabu, который заявил, что во время звонков в приложении якобы работает система распознавания ключевых слов на базе нейросети BC-ResNet.

По его версии, сейчас она реагирует на фразу «не слышу», а набор слов можно менять без обновления самого приложения. На этом фоне в соцсетях быстро заговорили чуть ли не о расшифровке разговоров пользователей.

В Центре безопасности MAX на это ответили резко: публикации о том, что кто-то получил доступ к расшифровке разговоров пользователей, там назвали фейком. В официальной позиции платформы говорится, что пользовательские данные «находятся под надёжной защитой», а ИИ в звонках нужен не для прослушивания содержимого бесед, а для технической настройки качества связи.

По версии MAX, технологии машинного обучения используются для анализа условий связи и автоматической подстройки параметров звонка. Проще говоря, система должна понимать, когда качество связи падает ниже критического уровня, чтобы вовремя переключить сервер или кодек и не дать разговору окончательно развалиться. При этом в компании подчёркивают, что такие инструменты работают обезличенно.

Отдельный интерес вызвало упоминание BC-ResNet. Это не какое-то секретное название внутреннего «шпионского» модуля, а известная архитектура нейросети для детектирования ключевых слов и распознавания коротких голосовых команд и ключевых слов на устройствах с ограниченными ресурсами, включая смартфоны. В открытом описании Qualcomm AI Research эта архитектура прямо позиционируется как эффективное решение для подобных задач с низкой вычислительной нагрузкой.

Ещё один момент, который многим показался подозрительным, — возможность обновлять ML-модели без полной пересборки приложения. Но и здесь ничего экзотического нет: современные мобильные SDK и правда позволяют отдельно обновлять модели машинного обучения, не выкатывая каждый раз новую версию всей программы. Иными словами, сам по себе этот факт ещё не доказывает слежку, а лишь показывает, что в приложении используются обычные для отрасли механизмы разработки.

AppSec Solutions разработала ИИ-файрвол для защиты LLM-систем

AppSec Solutions сообщила о разработке ИИ-файрвола — продукта для защиты систем с искусственным интеллектом и фильтрации запросов к большим языковым моделям. Разработкой занималась команда AppSec Solutions, входящая в группу компаний.

Решение ориентировано на компании, которые уже используют LLM в бизнес-процессах или только планируют внедрять нейросети.

Основная задача ИИ-файрвола — проверять входящие запросы и снижать риски, связанные с небезопасным использованием моделей.

Такие инструменты становятся всё актуальнее по мере того, как ИИ-сервисы начинают работать с корпоративными данными, внутренними системами и пользовательскими обращениями. Среди типичных рисков — инъекции в промпты, попытки обойти ограничения модели, утечки чувствительной информации и нежелательная генерация ответов.

Swordfish Security уже занимается темой безопасности ИИ. Ранее компания подготовила общедоступный фреймворк безопасности ИИ, с помощью которого организации могут оценивать зрелость и защищённость систем с применением нейросетей. Заявляется, что он адаптирует международный опыт к российскому законодательству и локальной практике.

Появление ИИ-файрвола выглядит логичным продолжением этой работы. Рынок постепенно приходит к простой мысли: подключить LLM к продукту или внутреннему сервису уже недостаточно. Нужно ещё понимать, кто и как с ней взаимодействует, какие запросы проходят внутрь системы и какие данные могут выйти наружу.

По сути, Swordfish Security развивает направление прикладной защиты ИИ-систем не на уровне общих разговоров про риски нейросетей, а через инструменты, которые должны встраиваться в реальные корпоративные сценарии.

К слову, команда AM Live провела день в офисе ГК Swordfish Securirty и выяснила, как развивают защиту ИИ уже сейчас и как она будет выглядеть в будущем. Кибербезопасность, разработка и искусственный интеллект; как на самом деле работает команда, которая создаёт продукты в условиях, где ещё нет готовых правил, стандартов и людей.

RSS: Новости на портале Anti-Malware.ru