Мошенники начали активно собирать изображения лиц россиян

Мошенники начали активно собирать изображения лиц россиян

Мошенники начали активно собирать изображения лиц россиян

Мошенники начали активно собирать изображения с лицами россиян — эту тенденцию подтверждают сразу несколько компаний в сфере информационной безопасности. Такие снимки могут использоваться для генерации дипфейков, подтверждения финансовых операций или обхода систем биометрической аутентификации.

Как сообщили «Известиям» в «Лаборатории Касперского», киберпреступники всё чаще выманивают у жертв фотографии лиц во время фишинговых атак. Обычно злоумышленники действуют под видом продавцов на онлайн-площадках и в классифайдах.

«Потенциальной жертве присылают ссылку на оплату, которая на самом деле ведёт на фишинговый сайт. После ввода данных банковской карты и перевода денег пользователя просят подтвердить личность — якобы для завершения сделки», — объяснили в компании схему атаки.

Для подтверждения личности жертву просят сделать фотографии в разных ракурсах. После этого страница закрывается, и никаких действий больше не происходит.

«Скорее всего, такие снимки могут быть впоследствии использованы, в том числе, для кражи аккаунтов в сервисах, где подтверждение личности происходит по видео», — отметила старший контент-аналитик «Лаборатории Касперского» Ольга Алтухова.

«Новый тренд на кражу биометрических данных представляет серьёзную угрозу, — подчеркнул руководитель BI.ZONE AntiFraud Алексей Лужнов. — Мошенники могут создавать поддельные документы и фейковые профили в соцсетях, используя фотографии жертв. Кроме того, они могут применять эти изображения для обхода биометрической идентификации в уязвимых системах. Попавшие в открытый доступ биометрические данные также могут стать инструментом шантажа или дискредитации».

Генеральный директор компании iTPROTECT Андрей Мишуков обратил внимание на то, что злоумышленники пользуются низким уровнем осведомлённости пользователей. Для большинства людей отправка фотографии воспринимается как безобидное действие — вроде нажатия кнопки «продолжить» в приложении или на сайте. По его мнению, эта ситуация сохранится до тех пор, пока биометрия не станет по-настоящему привычной и понятной технологией.

Старший аналитик данных R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Марина Рябова считает, что такие изображения особенно востребованы при создании дипфейков, которые затем используются в мошеннических схемах или для обхода систем FaceID.

Алексей Лужнов дополнил, что дипфейки уже активно применяются в атаках от имени руководителей компаний, а также в случаях, когда злоумышленники выдают себя за работодателей на поддельных собеседованиях.

Аналогичную активность мошенники проявляют и при сборе голосовых образцов. Для этого могут использоваться, в том числе, записи с автоответчиков — даже их достаточно, чтобы сгенерировать убедительную имитацию голоса.

Чтобы защититься от таких атак, эксперты рекомендуют не передавать свои фотографии и личные данные незнакомым людям и не размещать их на сомнительных платформах. В целом лучше минимизировать количество персональной информации, размещённой на публичных ресурсах.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Сбер готов делиться технологиями автоматического выявления дипфейков

Заместитель Председателя Правления Сбербанка Станислав Кузнецов заявил, что Сбер готов предоставлять свои технологии автоматического выявления дипфейков другим участникам рынка. Об этом он рассказал на форуме «Диалог о фейках 3.0» во время панельной дискуссии «Глобальный диалог: обеспечение цифрового суверенитета в условиях многополярности».

По словам Кузнецова, мир столкнулся с взрывным ростом дипфейков, а технологии их создания стали доступны буквально каждому — сгенерировать видео или аудио можно за несколько секунд и без затрат.

При этом дипфейки всё чаще применяются в мошеннических схемах, включая телефонное мошенничество и кражу денег.

«Если ещё в 2024 году преступники использовали базы данных, то теперь они запускают ИИ-агентов, которые сами находят нужную информацию. В основе таких преступлений — кибермистификация, когда ложь маскируется под правду с помощью технологий», — отметил Кузнецов.

Он подчеркнул, что для эффективной борьбы с дипфейками необходимо решить три ключевые задачи:

  1. Законодательно урегулировать их использование, в том числе признать применение дипфейков отягчающим обстоятельством при совершении преступлений.
  2. Развивать технологии быстрого выявления фейков и не допускать их распространения.
  3. Интегрировать системы распознавания дипфейков в массовые сервисы — смартфоны, ТВ, соцсети, мессенджеры и операторы связи.

Во время дискуссии Кузнецов продемонстрировал, как с помощью современных инструментов можно в реальном времени “надеть” лицо другого человека и заставить его говорить нужные слова. Он подчеркнул, что подобные возможности представляют серьёзную угрозу — от кражи личности до дискредитации публичных фигур.

Россия, по его словам, уже входит в число мировых лидеров по разработке технологий противодействия дипфейкам. В Сбере созданы решения, способные автоматически определять фальсификации в видео и аудио.

«Мы запатентовали собственное решение под рабочим названием Алетейя — в честь богини истины. Сервис позволяет определять дипфейки в любых системах: от телевидения до мессенджеров. И мы готовы делиться этими технологиями с партнёрами», — сказал Кузнецов.

Он добавил, что масштабное внедрение подобных систем может стать переломным моментом в борьбе с распространением дипфейков и повысить доверие к цифровому контенту.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru