Авторы стилеров маскируют зловреды под ИИ-ассистенты

Авторы стилеров маскируют зловреды под ИИ-ассистенты

Авторы стилеров маскируют зловреды под ИИ-ассистенты

Злоумышленники активно распространяют вредоносные копии популярных ИИ-ассистентов, таких как ChatGPT, DeepSeek и Google Gemini. Чаще всего эти подделки используются для распространения стилеров — вредоносных программ, перехватывающих учетные данные пользователей, как из публичных сервисов, так и из корпоративных систем.

По данным экспертов, опрошенных «Известиями», стилеры остаются востребованным инструментом среди киберпреступников благодаря своей простоте, доступности и распространенности в даркнете. Согласно данным «Информзащиты», в 2024 году число атак с их использованием увеличилось на 54% по сравнению с предыдущим годом.

Как пояснила руководитель ИТ-подразделения агентства «Полилог» Людмила Богатырева, злоумышленники нередко распространяют стилеры через фальшивые версии официальных приложений госструктур и банков, копируя их внешний вид и функциональность.

«Часто такие программы распространяются через фишинговые письма со вложенными файлами или ссылками на зараженные ресурсы. Злоумышленники маскируются под представителей госорганов, контрагентов, специалистов техподдержки или HR-отделов. Сегодня в области кибербезопасности активно используются ИИ-решения для выявления подобных угроз, однако сами мошенники также применяют искусственный интеллект для повышения реалистичности своих атак», — отметила она.

Пример одной из таких атак привели в «Информзащите»: сотрудники компании получили фишинговое письмо якобы от партнера-логиста с прикрепленными документами. Один из сотрудников загрузил и открыл файл, после чего стилер оказался на его устройстве.

Вредоносная программа украла его учетные данные и перехватила одноразовый код из СМС для обхода двухфакторной аутентификации. Получив доступ к корпоративной системе, хакеры похитили конфиденциальные данные компании и потребовали за них выкуп в несколько сотен тысяч рублей.

Старший контент-аналитик «Лаборатории Касперского» Ольга Свистунова отметила, что мошенники создают поддельные сервисы, имитирующие популярные ИИ-ассистенты. Это позволяет им одновременно собирать данные, перехваченные стилерами, и получать доступ к учетным записям пользователей.

Руководитель BI.ZONE Threat Intelligence Олег Скулкин обратил внимание на то, что в даркнете можно найти базы данных, собранные стилерами. Кроме того, появились бесплатные генераторы вредоносного кода, доступные даже тем, кто не имеет средств или технических возможностей для приобретения коммерческих вредоносных программ по модели «вирус как сервис».

Некоторые стилеры становятся все более сложными и трудно обнаруживаются средствами защиты. Например, новые штаммы GuLoader практически незаметны для антивирусных программ.

В Министерстве цифрового развития рекомендуют соблюдать базовые меры предосторожности:

  • Критически относиться к ссылкам, по которым переходите,
  • Избегать установки приложений из непроверенных источников,
  • Не передавать никому логины, пароли и коды двухфакторной аутентификации.

Для защиты компаний директор по клиентской безопасности Selectel Денис Полянский выделил три ключевых правила:

  1. Настроить защиту корпоративной почты,
  2. Обеспечить антивирусную защиту всех рабочих устройств, включая Linux-системы,
  3. Регулярно обучать сотрудников методам кибербезопасности и выявления мошеннических схем.

По прогнозам специалистов, стилеры останутся одной из значимых угроз в 2025 году.

Путин поручил запустить пилот по обучению ИИ и информационной безопасности

Владимир Путин поручил запустить в Московской области пилотный проект по обучению технологиям искусственного интеллекта и информационной безопасности. Соответствующие поручения опубликованы на сайте Кремля по итогам заседания Госсовета.

Проект правительство должно реализовать совместно с властями региона. Доклад о его запуске президент ожидает до 1 июля — его представят премьер-министр Михаил Мишустин и губернатор Подмосковья Андрей Воробьёв.

Кроме того, к 15 июля поручено включить компетенции в сфере ИИ в образовательные и профессиональные стандарты. Речь идёт о том, чтобы навыки работы с искусственным интеллектом стали частью формальной системы подготовки специалистов.

Отдельно поставлена задача организовать программы повышения квалификации для преподавателей и учителей по направлениям ИТ и ИИ — с участием технологических компаний.

Тема развития искусственного интеллекта ранее уже звучала на федеральном уровне. В ноябре, выступая на конференции AI Journey-2025, президент заявил о необходимости создать штаб по управлению отраслью ИИ и поручил правительству совместно с регионами сформировать национальный план внедрения генеративного ИИ.

Тогда Владимир Путин подчеркнул, что зависимость от иностранных нейросетей недопустима, поскольку речь идёт о технологическом суверенитете страны. Новые поручения, судя по всему, становятся практическим шагом в этом направлении.

Анастасия Федорова, руководитель образовательных программ Positive Education, поделилась с Anti-Malware.ru своим комментарием:

«Поручение о запуске пилотного проекта по обучению ИИ и кибербезопасности —  сигнал о приоритете повышения безопасности в цифровой среде. Это поможет интегрировать ключевые компетенции в образование и сформировать культуру кибербезопасности на всех уровнях.

Внимание к вопросу кибербезопасности на самом высшем уровне говорит о том, что киберугрозы воспринимаются как серьезная проблема, решение которой — межотраслевая задача.

Аналитики Positive Technologies в 2026 году прогнозируют рост успешных атак на компании и частных лиц на 30–35% по сравнению с 2025 годом. Важно понимать, что сегодня личный и корпоративный кибербез неразделимы — часть атак на бизнес начинается с компрометации устройств или аккаунтов сотрудников в личном пространстве. Поэтому обучение должно фокусироваться на реальных повседневных сценариях, где ошибка одного человека может запустить цепную реакцию до уровня компании. В Positive Education мы активно развиваем именно такие корпоративные программы».

RSS: Новости на портале Anti-Malware.ru