Статистику Check Point ThreatCloud объединят с ИИ-платформой SimilarWeb

Статистику Check Point ThreatCloud объединят с ИИ-платформой SimilarWeb

Статистику Check Point ThreatCloud объединят с ИИ-платформой SimilarWeb

Компания Check Point объявила о новом альянсе с SimilarWeb, лидером в сфере искусственного интеллекта. Компании объединят усилия, чтобы улучшить обнаружение угроз и повысить осведомленность пользователей о кибербезопасности — для создания более безопасного, надежного и «прозрачного» интернета.

Согласно недавнему опросу Check Point, 42% респондентов считают, что предотвращение фишинга и атак социальной инженерии будет самой важной задачей кибербезопасности в 2021 году. Благодаря новой интеграции с помощью сервисов SimilarWeb пользователи смогут проверять веб-страницы и оценивать домены на наличие угроз, защищая себя тем самым от атак.

«В Check Point мы занимаемся не только вопросами защиты организаций любого уровня и масштаба — от малого бизнеса до глобальных корпораций с тысячами сотрудников — но и разрабатываем инструменты для обеспечения более безопасного цифрового пространства в мире в целом. Сотрудничество с SimilarWeb — это еще один шаг в этом направлении, — комментирует Василий Дягилев, глава представительства Check Point Software Technologies в России и СНГ.

«Мы рады объединиться с партнерами и предоставить дополнительный уровень аналитики угроз, который повысит осведомленность пользователей SimilarWeb о безопасности. Для опережения угроз мы должны проявлять инициативу и работать вместе — чтобы ни одна часть атаки не оставалась незамеченной».

«Работа с таким новатором в области кибербезопасности как Check Point позволит нам улучшить наши предложения в области цифровой разведки, — отмечает Бенджамин Серор, директор по продуктам компании SimilarWeb. — Этот альянс показывает, насколько безопасность является важным компонентом успешной цифровой трансформации».

Мошенники подделывают голоса следователей с помощью ИИ

Злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов. Нейросети также применяются для создания убедительных текстовых сообщений. Такой подход позволяет мошенникам выманивать персональные данные и убеждать людей передавать деньги или ценности.

О распространении этой практики рассказал ТАСС руководитель регионального управления Следственного комитета по Калининградской области Дмитрий Канонеров.

По его словам, использование нейросетевых технологий позволяет создавать крайне правдоподобный контент, который легко воспринимается как подлинный.

«Мошенники используют должности и фамилии сотрудников нашего ведомства, которые нередко выступают по телевидению с комментариями по уголовным делам. Они задействуют искусственный интеллект, способный сгенерировать голос. Недавно к моему заместителю пришло голосовое сообщение “от меня”. Звучало действительно очень похоже», — отметил Дмитрий Канонеров.

Как пояснил представитель Следственного комитета, действуя от имени ведомства, злоумышленники часто ведут себя агрессивно и грубо. Таким образом они усиливают психологическое давление на потенциальных жертв и пытаются вывести их из эмоционального равновесия.

Дмитрий Канонеров также напомнил, что порядок проведения следственных действий строго регламентирован. Сотрудники правоохранительных органов не проводят такие действия дистанционно — они осуществляются исключительно в очном формате. Вызов граждан производится с помощью повестки или телефонограммы. Кроме того, представители следствия никогда не требуют перевода денег или передачи каких-либо товарно-материальных ценностей.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru