Киберпреступник заработал миллионы за счет пользователей Steam

Киберпреступник заработал миллионы за счет пользователей Steam

Киберпреступник заработал миллионы за счет пользователей Steam

Аналитики «Доктор Веб» раскрыли преступную схему, позволившую злоумышленнику заработать миллионы рублей. Киберпреступник, скрывающийся под псевдонимом «Faker», разработал систему аренды вредоносных программ по подписке, приносящую ему значительный доход. Среди пострадавших — множество пользователей игровой платформы Steam.

«Faker» использует несколько способов незаконного заработка. Главный среди них — разработанная им схема MaaS (Malware As a Service), реализующая аренду вредоносных программ по подписке. От клиентов «Faker»’а, желающих зарабатывать на распространении троянцев, не требуется ничего, кроме денег и, в некоторых случаях, домена: вирусописатель предоставляет им самого троянца, доступ к административной панели и техническую поддержку. По подсчетам аналитиков «Доктор Веб», это решение «под ключ» принесло своему создателю миллионы, а сколько на этом заработали его клиенты, остается только догадываться – с учетом того, что потраченные деньги на оплату месяца использования этой криминальной услуги могут окупиться за сутки. Все созданные «Faker»’ом вредоносные программы угрожают пользователям популярного игрового сервиса Steam.

Steam — это разработанная компанией Valve Corporation платформа, предназначенная для цифрового распространения компьютерных игр и программ. Зарегистрированный пользователь Steam получает доступ к личному кабинету, в котором собрана информация обо всех приобретенных им ранее играх и приложениях. Помимо этого, он может совершать покупки в магазине Steam, приобретая различный цифровой контент, а также продавать и обменивать игровые предметы. Эти предметы имеют ключевое значение в различных многопользовательских играх. Оружие, амуниция и различный инвентарь позволяют менять внешний вид игрока и визуальное представление его имущества в игре. Игровые предметы можно обменивать на специализированных сайтах, а также покупать и продавать за реальные деньги. Именно на этом построил свой криминальный бизнес «Faker».

Один из применяемых им способов заработка — так называемые «рулетки». Так сетевые игроки называют своеобразные аукционы, на которые сразу несколько участников выставляют различные игровые предметы. Вероятность выигрыша зависит от размера сделанной участником ставки, а победитель забирает все участвующие в розыгрыше лоты. Мошенничество заключается в том, что против реального игрока выступают специальные программы-боты, которые гарантированно выигрывают ставку. Иногда потенциальной жертве предлагают стать администратором такой игры и даже позволяют несколько раз выиграть, прежде чем она выставит на очередной кон какой-либо дорогой игровой предмет, который тут же будет проигран и перейдет в собственность злоумышленников.

Две вредоносные программы, используемые в этой кампании, были проанализированы «Доктор Веб»: Trojan.PWS.Steam.13604, Trojan.PWS.Steam.15278.

ИИ научился находить владельцев скрытых аккаунтов в соцсетях

Искусственный интеллект, который многим кажется удобным помощником для работы и поиска информации, оказался ещё и очень полезным инструментом для деанонимизации. Новое исследование показало, что большие языковые модели могут заметно упростить поиск владельцев анонимных аккаунтов в соцсетях.

Схема такая: ИИ анализирует всё, что человек пишет в анонимном профиле, вычленяет характерные детали, а потом ищет совпадения на других платформах, где пользователь уже выступает под настоящим именем или хотя бы менее скрытно. И во многих тестах такой подход срабатывал довольно точно.

Авторы исследования, Саймон Лермен и Даниэль Палека, прямо говорят: большие языковые модели сделали подобные атаки не только возможными, но и экономически оправданными. По их мнению, это заставляет буквально заново пересмотреть представление о том, что вообще можно считать конфиденциальностью в интернете.

В рамках эксперимента исследователи «скармливали» модели анонимные аккаунты и просили собрать максимум доступной информации. Дальше ИИ сопоставлял детали из постов с другими открытыми источниками. Пример, который приводят авторы, выглядит почти бытовым: человек пишет о проблемах в школе и о прогулках с собакой по кличке Бисквит в парке Мишен Долорес. Для живого человека это может быть просто набор мелочей. Для ИИ — уже почти готовый пазл.

Дальше модель ищет, где ещё в интернете встречается такой же набор деталей, и с высокой вероятностью связывает анонимный аккаунт с конкретным человеком. И это, пожалуй, самое неприятное в истории: ничего взламывать тут не нужно. Достаточно открытых данных и модели, которая умеет быстро собирать разрозненные кусочки в цельную картину.

Исследователи отдельно предупреждают, что такая технология может использоваться не только мошенниками, но и государственными структурами для слежки за активистами и другими людьми, которые стараются высказываться анонимно.

А для киберпреступников это ещё и удобный путь к целевым атакам — например, к персонализированному фишингу, когда жертве пишут так убедительно, будто сообщение отправил знакомый человек.

По сути, ИИ делает массовое OSINT-наблюдение куда доступнее. Раньше для такой работы нужны были время, навыки и терпение. Теперь во многих случаях хватает публично доступной модели и подключения к интернету. Именно это и вызывает тревогу у специалистов по кибербезопасности.

Впрочем, исследователи и эксперты подчёркивают, что ИИ тут не всесилен. Большие языковые модели всё ещё ошибаются, а иногда и откровенно фантазируют. Из-за этого возможны ложные совпадения, когда человека могут ошибочно связать с аккаунтом, к которому он вообще не имеет отношения. И это уже отдельный риск, особенно если речь идёт о политических темах или публичных обвинениях.

Ещё одна важная проблема в том, что для деанонимизации могут использоваться не только соцсети. По словам экспертов, в дело могут идти и другие открытые данные: статистические публикации, записи, сведения о поступлении, медицинские наборы данных и другие массивы информации, которые раньше считались достаточно обезличенными. В эпоху ИИ этого обезличивания может уже не хватать.

В качестве первых мер защиты авторы советуют платформам жёстче ограничивать массовый сбор данных: вводить лимиты на выгрузку пользовательской информации, отслеживать автоматический скрейпинг и ограничивать массовый экспорт данных.

А обычным пользователям рекомендация простая: чуть внимательнее относиться к тому, какие повторяющиеся детали о себе они оставляют в открытом доступе.

RSS: Новости на портале Anti-Malware.ru