Мошенники используют сохраненные голосовые в мессенджерах

Мошенники используют сохраненные голосовые в мессенджерах

ВТБ предупреждает о новой уловке мошенников, атакующих пользователей в мессенджерах. Злоумышленники взламывают аккаунт и копируют аудиосообщения жертвы, а затем с их помощью пытаются выманить деньги у ее знакомых.

Чтобы определить подходящую кандидатуру для развода, взломщики изучают переписку жертвы с родными, друзьями и коллегами. Выбрав тему (день рождения общего знакомого, планы на выходные и т. п.), они имитируют продолжение диалога.

Для пущей убедительности обманщики подкрепляют текстовые сообщения голосовыми, из найденных в профиле жертвы. Завоевав доверие, они озвучивают просьбу о финансовой помощи — например, одолжить на пару дней денег для оплаты услуг ЖКХ, с указанием номера карты для перевода.

«Старые схемы всегда обрастают новыми подробностями и хитростями, — комментирует Никита Чугунов, старший вице-президент ВТБ, руководитель департамента цифрового бизнеса. — Будьте бдительны и не поддавайтесь на уговоры, проверяйте информацию через дополнительные каналы связи. Для защиты мы рекомендуем удалять голосовые сообщения из чатов после прослушивания или поставить опцию их автоудаления».

Традиционное телефонное мошенничество, видимо, теряет свою эффективность в России благодаря информированности населения и мерам, принимаемым игроками рынка. В прошлом году ВТБ зафиксировал сокращение количества таких инцидентов на 16% (до 6,5 млн).

Аферисты стали переносить свои схемы в мессенджеры, и защитные сервисы определения номеров пришлось распространять и на эти каналы. Чтобы оградить пользователей от атак с использованием архивных голосовых сообщений (в том числе как основы для ИИ-генераторации аудио), операторы мессенджеров начали внедрять технологии одноразового просмотра и самоудаления таких файлов.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

В России начнут маркировать контент, сгенерированный нейросетью

Материалы, созданные нейросетью, российские сервисы будут автоматически маркировать четкими и заметными графическими знаками. По словам Антона Немкина, члена комитета Госдумы по информационной политике, это поможет усмирить бесконтрольное использование ИИ.

Начальник управления киберразведки и цифровой криминалистики Angara Security Никита Леокумович сообщил изданию «КоммерсантЪ», что стремительно развивающийся искусственный интеллект несёт в себе опасность.

Например, он может нарушать нормы морали и права человека, создавая вымышленные факты и генерируя дипфейки. Именно поэтому очень важно маркировать материалы, сгенерированные с помощью нейросети, включая текст, изображения и видео.

Огромное количество исходных кодов нейросети доступно любому пользователю. Возможно, из-за этого число мошенников, использующих ИИ, заметно выросло.

Сейчас есть возможность проверить, сгенерировано ли изображение с помощью искусственного интеллекта или создано человеком. Пользователю достаточно загрузить картинку на сервис (есть как платные, так и бесплатные), где алгоритм, основанный на ИИ, даст ответ.

По подсчётам компании «Диалог Регионы», около 12 миллионов дипфейков было обнаружено на просторах рунета в 2023 году. Исследователи предполагают, что к 2024 году это число вырастет до 15 млн.

Ярослав Шицле, руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» предполагает, что если сервисы не будут придерживаться требований и автоматически маркировать создаваемый ИИ контент, их будут блокировать или даже привлекать к ответственности.

О том, что вид графических символов на материалах может повлиять на рекламный рынок, рассказал управляющий партнер агентства PRT Edelman Глеб Сахрай. Пока неизвестно, насколько большой будет надпись, и как будут относиться люди к контенту, зная, что он сгенерирован нейросетью. Возможно, рекламные агентства снова прибегнут к помощи копирайтеров и дизайнеров.

Примечательно, что подобный закон в Евросоюзе уже действует с марта этого года. По сообщениям компании OpenAI, изображения, созданные ChatGPT, уже маркируются. Видео, сгенерированные встроенными алгоритмами в TikTok, помечаются платформой.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru