Нападения на российские компании с использованием ИИ выросли на 48%

Нападения на российские компании с использованием ИИ выросли на 48%

Нападения на российские компании с использованием ИИ выросли на 48%

За первые пять месяцев 2025 года количество кибератак на российские компании с применением искусственного интеллекта (ИИ) со стороны украинских хакерских группировок выросло на 48% по сравнению с аналогичным периодом прошлого года. Чаще всего ИИ используется для модификации вредоносных программ.

По мнению экспертов, опрошенных «Известиями», одной из самых опасных группировок является украинско-польская Librarian Ghouls.

Как рассказал директор центра мониторинга и противодействия кибератакам IZ:SOC компании «Информзащита» Александр Матвеев, ключевая тенденция — это использование нелегальных ИИ-агентов для создания модифицированных зловредов.

«ИИ способен генерировать вредоносный код, который хакеры применяют для атак на организации. Для этого в даркнете с помощью нейросетей находят специальные модели, у которых сняты этические ограничения. Подписка на таких ИИ-ассистентов обычно стоит около $200 в месяц», — уточнил представитель IZ:SOC.

По словам Матвеева, этот процесс развивается параллельно с распространением модели Ransomware-as-a-Service (RaaS, «вымогательство как услуга»). Благодаря применению ИИ стоимость таких сервисов снижается, что делает их доступными для более широкого круга злоумышленников.

На долю Librarian Ghouls приходится 15–20% всех атак. Эта группировка известна с декабря 2024 года. Обычно она действует ночью. Изначально злоумышленники заражали инфраструктуру компаний шпионским софтом, которое позже заменяли криптомайнером. Как отметил директор департамента киберрасследований T.Hunter Игорь Бедеров, действия группы становятся заметными лишь на этапе шантажа: когда начинается угроза публикации похищенных данных.

По оценке эксперта T.Hunter, в 2025 году количество вариантов программ-вымогателей, созданных с помощью ИИ, увеличилось в четыре раза. С ними уже столкнулись 85 тысяч компаний и пользователей. Геополитическая обстановка способствует как росту количества атак, так и их агрессивности.

Всё чаще применяются схемы двойного и тройного вымогательства, при которых злоумышленники требуют оплату не только за восстановление доступа к данным, но и за неразглашение украденной информации.

Высокую активность операторов программ-шифровальщиков подтвердили и в компании F6. Особенно выраженной она стала во втором квартале 2025 года. Целью атак всё чаще становится не только получение выкупа, но и нанесение максимального ущерба. Среди наиболее активных группировок в F6 выделяют DarkStar (бывш. Shadow/c0met), Mimic ransom и Proton/Shinra.

«Большинство группировок, атаковавших Россию во втором квартале, продолжают использовать утёкшие в Сеть версии шифровальщиков LockBit 3 Black и Babuk. Основные типы ущерба: кража информации, компрометация данных об организации и последующие требования выкупа, что ведёт к серьёзным финансовым и репутационным потерям», — сообщили в пресс-службе F6.

В «Информзащите» настоятельно рекомендуют не платить выкуп. По их мнению, это лишь повышает вероятность повторной атаки.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru