Битрикс24 обновил мессенджер: шифрование, биометрия и автоудаление

Битрикс24 обновил мессенджер: шифрование, биометрия и автоудаление

Битрикс24 обновил мессенджер: шифрование, биометрия и автоудаление

На фоне роста фишинговых атак и утечек данных Битрикс24 представил обновление корпоративного мессенджера с рядом функций, направленных на повышение конфиденциальности переписки и видеозвонков. В числе ключевых изменений — сквозное шифрование, биометрическая авторизация, обязательная двухфакторная аутентификация, защита от скриншотов и возможность автоудаления сообщений.

В последние годы всё больше компаний сталкиваются с кибератаками. По данным опроса Битрикс24, 34% представителей бизнеса уже становились жертвами мошенников.

При этом более половины — 56% — до сих пор обмениваются коммерческой информацией через обычные публичные мессенджеры. Это часто приводит к утечкам и потере конфиденциальных данных.

Один из самых распространённых сценариев — фишинг через мессенджеры. Цель — получить доступ к внутренним системам компании и нарушить работу инфраструктуры. Один из способов снизить риски — использовать внутрикорпоративный мессенджер, где коммуникации защищены.

В Битрикс24 вышло обновление мессенджера, в которое вошли новые функции, направленные на усиление защиты:

  • Сквозное шифрование и SSL-сертификаты с использованием RSA — для защиты переписки и видеозвонков.
  • Биометрическая авторизация в мобильном приложении.
  • Обязательная двухфакторная аутентификация при входе в веб- и десктоп-версию через смартфон.
  • Функция автоудаления сообщений — её можно включить в личных, групповых и проектных чатах с настраиваемыми сроками (от часа до месяца).
  • Защита от скриншотов в мобильной версии мессенджера.

Также обновления коснулись видеозвонков: была внедрена технология QuantumConnect, которая обеспечивает стабильную связь и защищённую авторизацию через Web Token.

Эксперты считают, что такие меры могут помочь компаниям сократить риски утечек и лучше защититься от фишинговых атак, особенно на фоне продолжающегося роста угроз в цифровой среде.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru