Мошенников, освоивших ИИ, выдают артефакты на фейковых сайтах

Мошенников, освоивших ИИ, выдают артефакты на фейковых сайтах

Мошенников, освоивших ИИ, выдают артефакты на фейковых сайтах

Проведенное в «Лаборатории Касперского» исследование показало, что поддельные сайты, созданные с помощью ИИ, могут содержать следы использования таких онлайн-сервисов, которые мошенники поленились или забыли вычистить.

Рост доступности больших языковых моделей (БЯМ, LLM) способствует, в числе прочего, увеличению количества злоупотреблений.

Использование инструментов на их основе позволяет поставить генерацию контента, в том числе вредоносного, на поток, однако ИИ-помощников нельзя оставлять без присмотра, о чем не знают или забывают обманщики.

В ходе анализа на фишинговых и скамерских сайтах эксперты обнаружили такие артефакты, как ответы чат-ботов, в которых сработала встроенная защита; лексикон, характерный для известных LLM; служебные пометки со ссылкой на ИИ-сервис.

Так, из-за больших масштабов автоматизации или кривых рук на созданных ИИ страницах зачастую можно встретить извинения чат-бота, которому этикет не позволяет выполнить запрос. Взамен он предлагает «сделать что-то похожее», и это тоже попадает в паблик.

 

В данном примере присутствуют и другие свидетельства фейка — диакритический знак в слове «Login» и буква «ɱ» вместо «m» в заголовке (замена по методу тайпсквоттинга).

Использование LLM, по словам экспертов, могут также выдать характерные слова и фразы. Чат-боты OpenAI, например, часто употребляют delve («штудировать»), а конструкции вроде in the ever-evolving / ever-changing world / landscape («в изменчивом /развивающемся мире / ландшафте») использует множество нейросетей.

Предательский отказ ассистента подчиниться и другие маркеры изредка встречаются также в мегатегах поддельных сайтов. В примере ниже исследователи обнаружили еще один признак мошенничества — имя «bolygon» в URL имитации легитимного Polygon.

 

«Злоумышленники активно изучают возможности применения больших языковых моделей в разных сценариях автоматизации, но, как видно, иногда допускают ошибки, которые их выдают, — отметил руководитель группы исследований и ML-разработок в Kaspersky Владислав Тушканов. — Однако подход, основанный на определении поддельной страницы по наличию тех или иных “говорящих слов”, ненадёжен. Поэтому пользователям нужно обращать внимание на подозрительные признаки, например логические ошибки и опечатки на странице. Важно убедиться, что адрес сайта совпадает с официальным».

Leek Likho подключила ИИ к атакам на российские организации

Киберпреступная группировка Leek Likho решила, что обычных вредоносных скриптов уже мало, и начала активно подключать ИИ к своим атакам. По данным «Лаборатории Касперского», в 2026 году злоумышленники использовали большие языковые модели для тонкой настройки вредоносных инструментов под конкретные цели — в основном организации из российского госсектора.

Теперь зловреды тоже проходят персонализацию. Исследователи отмечают, что Leek Likho остаётся активной как минимум с 2025 года и постоянно меняет инфраструктуру, методы маскировки и инструменты.

Но сама схема атак остаётся классической: социальная инженерия, многоступенчатая загрузка и использование легитимных сервисов, чтобы не вызывать лишних подозрений.

Главный входной билет — Telegram. Именно через него злоумышленники обычно выходят на жертв. Они рассылают ссылки, которые маскируются под файлообменники или страницы загрузки файлов Telegram. Иногда используют и Dropbox. После перехода жертва скачивает архив с сюрпризом внутри.

В архиве находится LNK-файл с двойным расширением вроде Proekt_prikaza_681_o_pooshchrenii.pdf.lnk. В стандартном интерфейсе Windows он выглядит как обычный PDF-документ — например, приказ о назначении или поощрении. Классика корпоративного жанра: срочно ознакомьтесь.

 

Но после открытия запускается цепочка заражения. Дополнительные вредоносные инструменты маскируются под популярные приложения, например софт для работы с базами данных. Затем данные с устройства собираются и отправляются атакующим через rclone — вполне легитимный инструмент для работы с облачными хранилищами, который хакеры давно полюбили за удобство и низкий уровень подозрений со стороны защиты.

Самое интересное — поведение самих вредоносных скриптов. По данным «Лаборатории Касперского», для каждой цели Leek Likho слегка меняет код, названия файлов и структуру инструментов. Иногда отличаются только номера приказов в названиях документов, иногда — сами сценарии выполнения вредоносных действий. В код могут добавляться бессмысленные операции, которые ничего не делают, кроме одной вещи: мешают детектированию.

Исследователи считают, что именно здесь группировка активно использует ИИ. Большие языковые модели помогают быстро генерировать новые варианты скриптов, менять названия файлов и слегка перестраивать код, чтобы сигнатурная защита и аналитики каждый раз видели чуть-чуть другую атаку.

RSS: Новости на портале Anti-Malware.ru