Великобритания запускает новую службу реагирования на киберинциденты

Великобритания запускает новую службу реагирования на киберинциденты

 Управление правительственной связи Великобритании (GCHQ) представило новую службу реагирования на киберинциденты, проект которой разрабатывался в тесном сотрудничестве с Центром защиты национальной критической инфраструктуры (CPNI).

Служба позволит жертвам киберинцидентов напрямую связываться с компаниями, которые способны помочь им нейтрализовать последствия этих атак. На данный момент проект находится в стадии тестирования. В нем принимает участие четыре компании, специалисты которых обладают достаточно обширным опытом компьютерно-технической экспертизы и нейтрализации последствий кибератак на электронную систему. В соответствии с условиями проекта, компании BAE Systems Detica, Cassidian, Context IS и Mandiant должны проводить мероприятия по нейтрализации кибератак практически в режиме реального времени, т.е. сразу после начала атаки. Специалисты компании должны будут проанализировать и определить природу киберинцидента, а затем нейтрализовать угрозу и ее последствия.

Вышеописанный проект является частью инициативы правительства Великобритании, давно заявляющего о необходимости более тесного сотрудничества государственных и частных структур в вопросе повышения кибербезопасности страны.

В России запретят приложения для подмены голоса и голосов знаменитостей

В России готовятся заблокировать несколько приложений, позволяющих менять голос во время звонков и переписки — в том числе с использованием реалистичных голосов знаменитостей. Соответствующее решение принял Хамовнический суд Москвы, и запрет вступит в силу уже в феврале.

Как сообщает телеграм-канал Baza, суд согласился с позицией прокуратуры, которая указала на высокие риски злоупотреблений такими сервисами.

Речь идёт не только о телефонных розыгрышах: с помощью приложений для подмены голоса, по мнению надзорных органов, можно рассылать ложные сообщения о терактах, совершать звонки с экстремистскими призывами и использовать технологии в мошеннических схемах.

Тема подмены голоса в последнее время действительно всё чаще всплывает в криминальной хронике. Например, злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru