Может ли Meta читать переписки в WhatsApp: криптограф оценил риски

Может ли Meta читать переписки в WhatsApp: криптограф оценил риски

Может ли Meta читать переписки в WhatsApp: криптограф оценил риски

Вокруг WhatsApp (принадлежит Meta, признанной экстремистской и запрещённой в России) разгорается громкий спор о конфиденциальности. В связи с недавним коллективным иском и позицией Meta (корпорация признана экстремистской и запрещена в России) известный криптограф решил прокомментировать ситуацию.

Несмотря на многолетние заявления основателей мессенджера и самой Meta о сквозном шифровании, в США подан коллективный иск, в котором утверждается: сквозное шифрование в WhatsApp — фикция, а сотрудники Meta якобы могут читать любые сообщения пользователей в реальном времени.

По словам заявителей, сотруднику компании достаточно отправить внутренний запрос («task») инженеру Meta, и доступ к переписке любого пользователя будет предоставлен. Более того, утверждается, что читать можно не только текущие сообщения, но и всю историю с момента регистрации аккаунта, включая удалённые сообщения.

Если это правда, речь будет идти об одном из крупнейших скандалов в истории технологической индустрии — фактически о полном обмане миллиардов пользователей.

На ситуацию отреагировал профессор Университета Джонса Хопкинса и известный криптограф Мэттью Грин. В своём блоге он подробно разобрал обвинения и попытался оценить, насколько они вообще реалистичны.

Грин напоминает: WhatsApp действительно построен на протоколе Signal, который считается эталоном сквозного шифрования. Однако код самого WhatsApp закрыт, а значит, независимые исследователи не могут напрямую проверить, как именно реализовано шифрование.

Тем не менее, по мнению Грина, вероятность того, что обвинения соответствуют действительности, крайне мала. Он приводит два основных аргумента:

  1. Если бы Meta действительно имела скрытый доступ к переписке, это почти наверняка уже обнаружили независимые исследователи.
  2. Следы такого механизма неизбежно «засветились» бы в коде приложения. Даже если исходники закрыты, старые версии WhatsApp можно скачать, декомпилировать и проанализировать — и это делают не только энтузиасты, но и профессионалы.

Да, признаёт Грин, подобный анализ — сложная и трудоёмкая задача. Но сам факт, что он в принципе возможен, делает идею о сознательной лжи со стороны Meta крайне рискованной и, по его словам, «массово глупой» с точки зрения бизнеса и юридических последствий.

В итоге криптограф сводит всё к вопросу доверия и цитирует легендарное выступление Кена Томпсона «Reflections on Trusting Trust». Надёжной проверки не существует, и в какой-то момент пользователю всё равно приходится доверять. Вопрос лишь в том, разумно ли считать, что WhatsApp тайно проворачивает «самую масштабную аферу в истории технологий». По мнению Грина, без конкретных доказательств — нет, неразумно.

Он также отмечает, что ситуация здесь не уникальна: код сквозного шифрования в iMessage и FaceTime тоже не является открытым, и пользователи Apple находятся ровно в таком же положении.

Пока иск остаётся на уровне громких заявлений, а технических подтверждений им нет. Однако недавно экс-подрядчики заявили о неограниченном доступе к переписке WhatsApp.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru