Авторы стилеров маскируют зловреды под ИИ-ассистенты

Авторы стилеров маскируют зловреды под ИИ-ассистенты

Авторы стилеров маскируют зловреды под ИИ-ассистенты

Злоумышленники активно распространяют вредоносные копии популярных ИИ-ассистентов, таких как ChatGPT, DeepSeek и Google Gemini. Чаще всего эти подделки используются для распространения стилеров — вредоносных программ, перехватывающих учетные данные пользователей, как из публичных сервисов, так и из корпоративных систем.

По данным экспертов, опрошенных «Известиями», стилеры остаются востребованным инструментом среди киберпреступников благодаря своей простоте, доступности и распространенности в даркнете. Согласно данным «Информзащиты», в 2024 году число атак с их использованием увеличилось на 54% по сравнению с предыдущим годом.

Как пояснила руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева, злоумышленники нередко распространяют стилеры через фальшивые версии официальных приложений госструктур и банков, копируя их внешний вид и функциональность.

«Часто такие программы распространяются через фишинговые письма со вложенными файлами или ссылками на зараженные ресурсы. Злоумышленники маскируются под представителей госорганов, контрагентов, специалистов техподдержки или HR-отделов. Сегодня в области кибербезопасности активно используются ИИ-решения для выявления подобных угроз, однако сами мошенники также применяют искусственный интеллект для повышения реалистичности своих атак», — отметила она.

Пример одной из таких атак привели в «Информзащите»: сотрудники компании получили фишинговое письмо якобы от партнера-логиста с прикрепленными документами. Один из сотрудников загрузил и открыл файл, после чего стилер оказался на его устройстве.

Вредоносная программа украла его учетные данные и перехватила одноразовый код из СМС для обхода двухфакторной аутентификации. Получив доступ к корпоративной системе, хакеры похитили конфиденциальные данные компании и потребовали за них выкуп в несколько сотен тысяч рублей.

Старший контент-аналитик «Лаборатории Касперского» Ольга Свистунова отметила, что мошенники создают поддельные сервисы, имитирующие популярные ИИ-ассистенты. Это позволяет им одновременно собирать данные, перехваченные стилерами, и получать доступ к учетным записям пользователей.

Руководитель BI.ZONE Threat Intelligence Олег Скулкин обратил внимание на то, что в даркнете можно найти базы данных, собранные стилерами. Кроме того, появились бесплатные генераторы вредоносного кода, доступные даже тем, кто не имеет средств или технических возможностей для приобретения коммерческих вредоносных программ по модели «вирус как сервис».

Некоторые стилеры становятся все более сложными и трудно обнаруживаются средствами защиты. Например, новые штаммы GuLoader практически незаметны для антивирусных программ.

В Министерстве цифрового развития рекомендуют соблюдать базовые меры предосторожности:

  • Критически относиться к ссылкам, по которым переходите,
  • Избегать установки приложений из непроверенных источников,
  • Не передавать никому логины, пароли и коды двухфакторной аутентификации.

Для защиты компаний директор по клиентской безопасности Selectel Денис Полянский выделил три ключевых правила:

  1. Настроить защиту корпоративной почты,
  2. Обеспечить антивирусную защиту всех рабочих устройств, включая Linux-системы,
  3. Регулярно обучать сотрудников методам кибербезопасности и выявления мошеннических схем.

По прогнозам специалистов, стилеры останутся одной из значимых угроз в 2025 году.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru