Учетные провели исследование методов сбора информации спамерами

Учетные провели исследование методов сбора информации спамерами

...

Сотрудники Indiana University Researchers потратили пять месяцев на изучение методик, используемых современными спамерами для формирования и баз данных электронных адресов. Ученые считают, что результаты проведенного исследования окажутся небезынтересными для производителей средств борьбы со спамом.

Нежелательная электронная корреспонденция, или проще говоря спам представляет собой одну из наиболее распространенных и трудноразрешимых проблем, с которой сталкиваются практически все обитатели глобальной сети. По данным аналитиков компании MessageLabs, более 90 процентов писем, ежедневно передаваемых через Интернет, являются спамом.

Исследователи подготовились к эксперименту со впечатляющей основательностью. В качестве наживки были заготовлены 22’230 уникальных адресов электронной почты, которые были «разбросаны» в местах предположительного скопления спамеров.

Достаточно быстро ученым удалось установить, что наиболее привлекательными жертвами для распространителей мусорной корреспонденции являются обитатели Интернет-форумов, указывающие свой электронный адрес в публикуемом сообщении или комментарии. Указание адреса при регистрации на сайте, напротив, представляет собой достаточно безопасную процедуру. В ходе эксперимента ученые зарегистрировались на 70 сайтах и лишь на четыре адреса, указанных в регистрационной форме, начала поступать нежелательная корреспонденция. При этом примерно половина адресов, «засвеченных» в комментариях к постам привлекли к себе внимание распространителей «спама».

Для изучения методик сбора информации с веб-сайтов исследователи использовали специальный сайт, развернутый на собственном домене. Каждому посетителю ресурса демонстрировался уникальный адрес. Таким образом, эксперты смогли приблизительно установить периодичность сканирования сайтов в поисках новых жертв.

Эксперты утверждают, что хакерские приложения, отвечающие за сбор e-mail-адресов, так называемые «краулеры» (crawlers), обладают уникальными характеристиками, которые упрощают их обнаружение. А для того, чтобы отличить вредоносного «краулера» от его законопослушного собрата («онлайновые» поисковые механизмы также используют «ботов» для сбора необходимых данных) достаточно изучить его «место прописки».

Многим пользователям известно, что «краулера» можно без труда ввести в заблуждение путем замены символа «@» в указываемом адресе электронной почты на соответствующий предлог. Результаты проведенных экспериментов подтверждают эффективность этой нехитрой меры предосторожности. Кроме того, ученые доказали, что вероятность попадания пользователя в спамерскую базу данных напрямую зависит от благонадежности посещаемого ресурса.

О результатах своих исследований ученые рассказали на отраслевой конференции Conference on E-mail and Anti-Spam, in Mountain View, проходящей в эти дни в Калифорнии.

источник 

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru