Исследователи проверили безопасность Telegram, WhatsApp, Viber

Исследователи проверили безопасность Telegram, WhatsApp, Viber

Исследователи проверили безопасность Telegram, WhatsApp, Viber

Анализ показал, что 11 из 13 популярных IM-клиентов обеспечивают высокую безопасность и приватность по умолчанию. Telegram и мессенджер Facebook тоже надежны, но лишь в том случае, когда пользователь включил соответствующие настройки.

Решив проверить заявленные качества современных IM-сервисов, команда исследователей при издательстве CyberNews отобрала для анализа не только топовые приложения (Signal, Facebook Messenger, Viber, Telegram, WhatsApp), но также менее популярные аналоги — Session, Briar, Wickr Me, Wire, Cyber Dust.

При оценке учитывалось использование стандартных методов шифрования и транспортных механизмов, криптографических базисных элементов (примитивов), а также надежность схемы обмена ключами.

Исследование позволило получить следующие результаты:

  • лишь два мессенджера из 13 не обеспечивают безопасность по умолчанию; такие настройки в них приходится включать вручную;
  • четыре защищенных приложения используют криптопротокол Signal — стандарт де факто, обеспечивающий сквозное шифрование;
  • P2P в качестве транспортного механизма используют только два мессенджера —Briar и Qtox, хотя такая организация обмена позволяет передавать сообщения адресату напрямую, без промежуточных серверов;
  • клиент iMessage, присутствующий в iPhone, iPad, Apple Watch и Mac, обеспечивает шифрование только на HTTPS-каналах; при использовании стандарта GSM (сети 2G и 3G) сообщения не шифруются;
  • три IM-сервиса предлагают платную подписку, расширяющую возможности для пользователей;
  • большинство мессенджеров используют для шифрования и защиты ключей криптоалгоритмы RSA и AES, которые в настоящее время считаются одними из самых надежных.

Полученные показатели аналитики свели в общую таблицу:

 

В заключение исследователи отметили, что ни один защищенный мессенджер не способен гарантировать 100%-ную безопасность и приватность. Это прежде всего софт, и как таковой он не застрахован от багов, которые можно отыскать и использовать при наличии времени и адекватных ресурсов. Человеческий фактор тоже нельзя сбрасывать со счетов: далеко не все защищают смартфон или рабочий компьютер паролем и прилежно устанавливают обновления по мере их выхода.

ИИ-браузеры не избавятся от угрозы инъекции в промпт, признали в OpenAI

OpenAI признала: инъекции в промпт — одна из самых сложных и живучих угроз для ИИ, и полностью избавиться от неё в ближайшее время не получится. Об этом компания написала в блоге, посвящённом усилению защиты своего ИИ-браузера ChatGPT Atlas.

Инъекции в промпт (prompt injection) — это атаки, при которых ИИ «подсовывают» скрытые инструкции, например в письмах или на веб-страницах, заставляя агента выполнять вредоносные действия.

По сути, это цифровой аналог социальной инженерии — только направленный не на человека, а на ИИ.

«От таких атак, как и от мошенничества в интернете, вряд ли когда-нибудь будет стопроцентная защита», — прямо заявили в OpenAI.

В компании признают, что запуск ИИ в Atlas расширил поверхность атаки. И это не теоретическая угроза: сразу после выхода браузера на рынок исследователи показали, что несколько строк текста в Google Docs могут изменить поведение ИИ-агента.

В тот же день разработчики браузера Brave опубликовали разбор, где объяснили, что косвенные промпт-инъекции — системная проблема для всех ИИ-браузеров, включая Perplexity Comet.

С этим согласны и регуляторы. В начале месяца Национальный центр кибербезопасности Великобритании предупредил, что подобный вектор атаки на генеративные ИИ нельзя устранить, и призвал сосредоточиться не на «полной защите», а на снижении рисков и ущерба.

Решение OpenAI выглядит почти символично — компания создала автоматического атакующего на базе LLM. По сути, это ИИ, обученный с помощью играть роль хакера и искать способы внедрить вредоносные инструкции в агента.

Этот «бот-взломщик» тестирует атаки в симуляции; видит, как целевой ИИ рассуждает и какие действия предпринимает; дорабатывает атаку и повторяет попытки десятки и сотни раз.

 

Такой доступ ко внутренней логике агента недоступен внешним исследователям, поэтому OpenAI рассчитывает находить уязвимости быстрее реальных злоумышленников.

«Наш автоматический атакующий способен уводить агента в сложные вредоносные сценарии, растянутые на десятки и даже сотни шагов», — отмечают в OpenAI.

По словам компании, ИИ уже обнаружил новые векторы атак, которые не выявили ни внутренние Red Team, ни внешние исследователи.

В одном из примеров OpenAI показала, как вредоносное письмо с скрытой инструкцией попадает во входящие. Когда агент позже просматривает почту, он вместо безобидного автоответа отправляет письмо об увольнении. После обновления защиты Atlas смог распознать такую атаку и предупредить пользователя.

OpenAI честно признаёт: идеального решения не существует. Ставка делается на масштабное тестирование, быстрые патчи и многоуровневую защиту — примерно о том же говорят Anthropic и Google, которые фокусируются на архитектурных и политических ограничениях для агентных систем.

При этом OpenAI рекомендует пользователям снижать риски самостоятельно:

  • не давать агенту «широкие полномочия» без чётких инструкций;
  • ограничивать доступ к почте и платёжным данным;
  • подтверждать действия вроде отправки сообщений и переводов вручную.

RSS: Новости на портале Anti-Malware.ru