Банковский троян Zeus теперь подменяет поисковую выдачу Google

Банковский троян Zeus теперь подменяет поисковую выдачу Google

Банковский троян Zeus теперь подменяет поисковую выдачу Google

Исследователи Cisco Talos проанализировали образец банковского трояна Zeus Panda, отличительной чертой которого является использование SEO для внедрения своих злонамеренных ссылок в поисковую выдачу по ключевым словам, связанным с банковским сектором.

Эксперты отмечают, что это довольно необычный механизм распространения вредоносной программы, позволяющий киберпреступникам быстро получить учетные данные, информацию о банковских услугах и кредитных карточках пользователей.

«Это еще один пример того, как злоумышленники регулярно совершенствуют свои методы. В этих условиях организациям и обычным пользователям крайне важно быть в курсе таких вредоносных техник, чтобы обеспечить надлежащую защиту», - пишет Cisco.

Первоначальный вектор, используемый злоумышленниками в этой кампании, опирается на определенный набор ключевых слов, которые, предположительно, будут задействованы потенциальными целями. Благодаря уязвимым веб-серверам, киберпреступники смогли обеспечить выдачу своих ссылок на довольно высоких позициях в таких поисковиках, как Google. Это увеличивает риск того, что потенциальные жертвы перейдут по таким ссылкам.

На скриншоте ниже приведен пример ключевых слов, которые взяли в оборот злоумышленники:

В большинстве случаев злоумышленникам удавалось отображать свои ссылки несколько раз на одной странице. Образец вредоносных результатов, возвращаемых Google, приведен на рисунке ниже:

Используя скомпрометированные бизнес-сайты, получившие положительные рейтинги, киберпреступники смогли сделать свои ссылки в поисковой выдаче легитимными.

Атакующие нацелились на многочисленные группы ключевых слов, большинство из которых были привязаны к банковской или финансовой информации. Вот некоторые примеры:

  • "nordea sweden bank account number"
  • "al rajhi bank working hours during ramadan"
  • "how many digits in karur vysya bank account number"
  • "free online books for bank clerk exam"
  • "how to cancel a cheque commonwealth bank"
  • "salary slip format in excel with formula free download"
  • "bank of baroda account balance check"
  • "bank guarantee format mt760"
  • "free online books for bank clerk exam"
  • "sbi bank recurring deposit form"
  • "axis bank mobile banking download link"

По вредоносным ссылкам пользователей ожидает новая версия банковского трояна Zeus Panda, похищающего учетные данные. В этой версии хакеры улучшили защиту от обнаружения и оснастили вредоноса другими более совершенными функциями.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru