Злоумышленники зазывают на видеоконференцию с дипфейком губернатора

Злоумышленники зазывают на видеоконференцию с дипфейком губернатора

Злоумышленники зазывают на видеоконференцию с дипфейком губернатора

В Санкт-Петербурге зафиксирована новая волна мошенничества с использованием дипфейка губернатора города Сергея Беглова. Жителям массово рассылают приглашения на видеоконференцию с главой региона, пытаясь выманить у них личные данные.

Как сообщила «Фонтанка», о ситуации рассказал сам губернатор. По его словам, в электронную приёмную и на его страницу во «ВКонтакте» поступило множество обращений от горожан. Беглов подчеркнул, что такие сообщения рассылают исключительно мошенники, цель которых — «лёгкие деньги» и «нажива».

По словам губернатора, злоумышленники применили технологии дипфейка довольно высокого качества. Имитация его голоса и внешности выглядела правдоподобно.

Беглов напомнил, что должностные лица никогда не запрашивают коды из СМС, а использование зарубежных мессенджеров в служебных целях госслужащим запрещено.

По подсчётам «Фонтанки», это уже третья подобная атака на жителей Санкт-Петербурга. Первая была зафиксирована в ноябре 2024 года — тогда с ней столкнулся историк Лев Лурье. Следующая волна пришлась на март 2025 года.

По оценкам MTS AI, в 2025 году с дипфейк-атаками может столкнуться каждый второй житель России. Эксперты отмечают, что злоумышленники пользуются низкой осведомлённостью россиян о таких технологиях, что активно используется, в том числе, для политических провокаций.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Российские учёные научили ИИ ловить фейковые фото и нелепые изображения

Исследователи из AIRI, Сколтеха, MWS AI и МФТИ по-новому решили одну из наиболее сложных задач компьютерного зрения — выявление изображений с нелогичным содержанием, вроде рыцаря с мобильником или пингвина на велосипеде.

Разработанный ими метод TLG (Through the Looking Glass, «В Зазеркалье») использует ИИ для создания текстовых описаний картинок и обнаружения противоречий при сопоставлении с визуальным содержанием.

В комментарии для «Известий» один из соавторов проекта, доктор компьютерных наук Александр Панченко пояснил: существующие ИИ-модели хорошо распознают элементы картинок, но плохо улавливают контекст — далеко не всегда понимают совместимость представленных объектов с точки зрения здравого смысла.

Чтобы проверить действенность своего подхода, экспериментаторы создали датасет, включив него 824 изображения с нелепыми ситуациями. Тестирование алгоритма показало точность распознавания до 87,5%, что на 0,5-15% выше показателей других существующих моделей, а также большую экономию вычислительных ресурсов.

Новаторская разработка, по словам Панченко, способна повысить надежность систем компьютерного зрения. После доработки и дообучения ее также можно будет использовать для модерации контента — к примеру, для выявления фейковых фото.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru