Организаторы ложных свиданий заманивают жертв дипфейками

Организаторы ложных свиданий заманивают жертв дипфейками

Организаторы ложных свиданий заманивают жертв дипфейками

Мошенники начали активно использовать дипфейки в схемах с фальшивыми онлайн-знакомствами (Fake Date). С помощью искусственного интеллекта они создают несуществующих людей, которые выманивают деньги, или генерируют откровенный контент, заманивая жертв на фишинговые сайты.

Как рассказала «Известиям» Татьяна Дешкина, руководитель портфеля продуктов VisionLabs (входит в МТС), мошенники используют генеративные модели для создания правдоподобных персонажей, которых можно даже увидеть в видеозвонке.

«Мы уже зафиксировали 10 таких случаев, каждый из которых принес злоумышленникам более миллиона рублей, — отметила Дешкина. — Искусственный интеллект позволяет мошенникам анализировать информацию о жертве, включая данные из социальных сетей, и выстраивать максимально реалистичный сценарий обмана».

По ее прогнозу, в 2025 году такие схемы станут еще более изощренными. Например, нейросети помогут злоумышленникам выявлять в сервисах знакомств пользователей, наиболее уязвимых к их методам.

Ведущий аналитик Digital Risk Protection Евгений Егоров также ожидает роста атак с применением дипфейков, поскольку технологии развиваются, а инструменты на основе ИИ становятся все доступнее.

«Чаще всего мошенники используют дипфейки в схемах знакомств, — поясняет эксперт в области криптовалют Сергей Кузнецов. — Они могут выдавать себя даже за голливудских звезд, якобы ищущих вторую половину, и просить оплатить перелет в другую страну. Предлоги могут быть разными, включая знакомства в соцсетях, где уровень доверия выше. Кроме того, мошенники занимаются вредоносными рассылками, похищением криптоактивов, фишингом. Фальшивые свидания — лишь часть их преступного бизнеса».

По его данным, значительная часть таких мошенников базируется в Нигерии, а их деятельность охватывает не только Россию, но и другие страны. Причем среди них немало подростков.

Специалист GG Tech Сергей Поморцев отмечает, что злоумышленники все чаще применяют специализированные ИИ-ассистенты для генерации контента 18+, что позволяет им сократить расходы и отказаться от посредников. Такой контент используется для привлечения жертв на фишинговые сайты.

Руководитель BI.ZONE Brand Protection Дмитрий Кирюшкин предупреждает, что мошенники особенно активны в преддверии праздников и нередко используют актуальные новости для своих схем.

«С 1 января 2025 года мы выявили 67 доменов, связанных с фальшивыми свиданиями. Чаще всего мошенники представляются девушками, якобы ищущими знакомства в дейтинговых приложениях. В праздничные дни стоит особенно внимательно относиться к подобным предложениям», — подчеркивает Кирюшкин.

57% компаний готовы доверить ИБ искусственному интеллекту, опрос на AM Live

Почти две трети компаний готовы доверить свои системы информационной безопасности искусственному интеллекту, но при одном условии: за ним должен присматривать человек. Такие результаты показал опрос, проведённый среди зрителей и участников эфира AM Live «Машинное обучение и ИИ в кибербезопасности».

Тема встречи — растущая роль ИИ в ИБ и его двойственная природа. С одной стороны, технологии помогают автоматизировать анализ инцидентов, выявлять фишинг и обрабатывать огромные массивы данных.

С другой — злоумышленники тоже активно осваивают ИИ. По данным опроса, почти 40% компаний уже сталкивались с атаками, усиленными ИИ-инструментами.

Несмотря на это, отношение к технологии остаётся в целом позитивным. 57% респондентов заявили, что готовы внедрять ИИ в свои ИБ-системы при условии человеческого контроля. Ещё около трети готовы передать алгоритмам низкоуровневые задачи полностью или использовать их на более высоком уровне, но с обязательной валидацией решений.

Категорически против использования ИИ в информационной безопасности выступили лишь 7% участников опроса. При этом 25% не применяют его для автоматизации, но используют как вспомогательный инструмент — например, для анализа или консультаций.

Как отметил руководитель группы исследования технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов, многое зависит от масштаба задач. По его словам, компания в среднем отслеживает до 500 тысяч инцидентов в день, и вручную обработать такой объём невозможно. Здесь автоматизация, в том числе с применением ИИ, становится необходимостью. Однако рискованные сценарии пока рано полностью отдавать на откуп моделям — их разумнее использовать как советников.

Ведущий эксперт по безопасности разработки и ИИ компании К2 Кибербезопасность Александр Лысенко добавил, что доверие к ИИ заметно выросло буквально за последние месяцы. По его ощущениям, сегодня рынок готов делегировать алгоритмам некритичные процессы, а более серьёзные — при участии человека. Ещё полгода назад картина была бы менее оптимистичной.

Впрочем, не все разделяют такой энтузиазм. Руководитель продуктового направления «ИнфоТеКС» Светлана Старовойт считает, что сейчас рынок может находиться на пике доверия к ИИ. По её мнению, по мере накопления неудачных кейсов и ошибочных бизнес-решений на основе рекомендаций моделей возможен откат и более трезвая оценка возможностей технологии.

Участники эфира сошлись в одном: говорить о будущем ИИ в кибербезопасности пока рано. Технология развивается слишком быстро, и сложно предсказать, как именно она будет использоваться через пять или десять лет. Но уже сейчас очевидно, что искусственный интеллект становится заметным участником рынка ИБ и доверие к нему постепенно растёт.

RSS: Новости на портале Anti-Malware.ru