Дуров: Telegram за 12 лет не раскрыл ни байта пользовательских сообщений

Дуров: Telegram за 12 лет не раскрыл ни байта пользовательских сообщений

Дуров: Telegram за 12 лет не раскрыл ни байта пользовательских сообщений

Павел Дуров в очередной раз резко раскритиковал WhatsApp (принадлежит корпорации Meta, признанной экстремисткой и запрещённой в России), заявив, что формулировка «сквозное шифрование по умолчанию» вводит пользователей в заблуждение. Основная претензия Дурова связана с резервными копиями.

Основатель Telegram утверждает, что около 95% личных сообщений WhatsApp в итоге оказываются в резервных копиях на серверах Apple и Google в открытом виде, то есть без защиты сквозным шифрованием.

При этом шифрование самих бэкапов в мессенджере есть, но эта функция не включена по умолчанию, и, как считает Дуров, ею пользуются немногие.

По его версии, даже если сам пользователь защитил свой архив надёжным паролем, это не решает проблему полностью. Причина проста: значительная часть собеседников, с которыми он переписывается, скорее всего, такую защиту не включает. В результате переписка всё равно может попасть в обычные облачные резервные копии.

Отдельно Дуров указывает на метаданные. Он пишет, что WhatsApp хранит и при необходимости раскрывает информацию о том, кто с кем общается, а Apple и Google, по его словам, тысячи раз в год передают сохранённые резервные копии сообщений третьим сторонам.

На этом фоне Дуров традиционно противопоставил WhatsApp Telegram. Он заявил, что за более чем 12 лет работы Telegram якобы не раскрыл ни одного байта пользовательских сообщений. Верим?

Заявление получилось громким, но оно вполне укладывается в давнее публичное противостояние между Telegram и WhatsApp. Дуров не впервые критикует конкурента за подход к безопасности и приватности, делая ставку на то, что именно эта тема сильнее всего цепляет аудиторию.

AppSec Solutions разработала ИИ-файрвол для защиты LLM-систем

AppSec Solutions сообщила о разработке ИИ-файрвола — продукта для защиты систем с искусственным интеллектом и фильтрации запросов к большим языковым моделям. Разработкой занималась команда AppSec Solutions, входящая в группу компаний.

Решение ориентировано на компании, которые уже используют LLM в бизнес-процессах или только планируют внедрять нейросети.

Основная задача ИИ-файрвола — проверять входящие запросы и снижать риски, связанные с небезопасным использованием моделей.

Такие инструменты становятся всё актуальнее по мере того, как ИИ-сервисы начинают работать с корпоративными данными, внутренними системами и пользовательскими обращениями. Среди типичных рисков — инъекции в промпты, попытки обойти ограничения модели, утечки чувствительной информации и нежелательная генерация ответов.

Swordfish Security уже занимается темой безопасности ИИ. Ранее компания подготовила общедоступный фреймворк безопасности ИИ, с помощью которого организации могут оценивать зрелость и защищённость систем с применением нейросетей. Заявляется, что он адаптирует международный опыт к российскому законодательству и локальной практике.

Появление ИИ-файрвола выглядит логичным продолжением этой работы. Рынок постепенно приходит к простой мысли: подключить LLM к продукту или внутреннему сервису уже недостаточно. Нужно ещё понимать, кто и как с ней взаимодействует, какие запросы проходят внутрь системы и какие данные могут выйти наружу.

По сути, Swordfish Security развивает направление прикладной защиты ИИ-систем не на уровне общих разговоров про риски нейросетей, а через инструменты, которые должны встраиваться в реальные корпоративные сценарии.

К слову, команда AM Live провела день в офисе ГК Swordfish Securirty и выяснила, как развивают защиту ИИ уже сейчас и как она будет выглядеть в будущем. Кибербезопасность, разработка и искусственный интеллект; как на самом деле работает команда, которая создаёт продукты в условиях, где ещё нет готовых правил, стандартов и людей.

RSS: Новости на портале Anti-Malware.ru