Киберпреступники применяют ИИ в половине техник кибератак

Киберпреступники применяют ИИ в половине техник кибератак

Киберпреступники применяют ИИ в половине техник кибератак

Как показало исследование Positive Technologies, киберпреступники начали активно внедрять искусственный интеллект (ИИ) в свою деятельность. Уже в самом ближайшем будущем киберпреступники смогут найти ИИ применение во всех тактиках из базы MITRE ATT&CK, а также в 59% ее техник.

Как отмечают авторы исследования, до недавнего времени злоумышленники применяли ИИ не очень активно: он использовался лишь в 5% техник MITRE ATT&CK и еще для 17% применение такого инструментария признавалось перспективным.

Все изменило появление больших языковых моделей (LLM) и инструментов вроде ChatGPT, которые легальны и общедоступны. После выхода ChatGPT 4 количество фишинговых атак за год выросло в 13 раз.

Как особо обратили внимание аналитики, популярности инструментов ИИ у киберпреступников способствует также тот факт, что LLM не имеют ограничений, которые бы препятствовали генерации с их помощью вредоносного кода или инструкций. В итоге такие инструменты довольно широко используются для создания различных программных зловредов.

Обращение к большим языковым моделям помогает начинающим киберпреступникам,  ускорять подготовку к атакам. Злоумышленник может с их помощью уточнить, не упустил ли он чего-то или изучить различные подходы к реализации определенных шагов в ходе той иной акции.

Продвинутые инструменты поиска помогут начинающему злоумышленнику подобрать необходимую информацию и найти ответы на базовые вопросы. Особенно авторы исследования обращают внимание на ситуацию в развивающихся странах, где компании и госучреждения защищены хуже.

Среди методов атак, где малоопытные злоумышленники применяют ИИ наиболее широко, авторы исследования выделили фишинг, социальную инженерию, атаки на веб-приложения и слабые пароли, SQL-инъекции, а также сетевой сниффинг. Они не требуют глубоких технических знаний и их легко осуществлять с помощью публично доступных инструментов.

Благодаря ИИ уже на текущем уровне технологий можно автоматически генерировать фрагменты вредоносного кода, фишинговые сообщения, разного рода дипфейки, которые делают более убедительными привычные сценарии атак социальной инженерии, автоматизировать отдельные этапы кибератак, среди которых авторы исследования особо выделили управление ботнетами. Однако развить и создать новые инструменты ИИ для автоматизации и масштабирования кибератак пока могут только опытные злоумышленники.

«Пока что ни об одной атаке нельзя сказать, что она была полностью проведена искусственным интеллектом. Тем не менее мир информационной безопасности постепенно движется к автопилотированию как в защите, так и в атаке. Мы прогнозируем, что с течением времени киберпреступные инструменты и модули с ИИ будут объединяться в кластеры для автоматизации все большего числа этапов атаки, пока не смогут покрыть большую часть шагов», — предупреждают авторы исследования.

 

Если злоумышленникам удастся автоматизировать проведение атак на выбранную цель, следующим шагом может стать применение инструментов для самостоятельного поиска целей. Опытным киберпреступникам ИИ даст инструментарий для сбора данных о потенциальных жертвах из разных источников, причем в короткие сроки.

ИИ активно применяется при эксплуатации уязвимостей, причем потенциал данных инструментов реализован еще далеко не полностью. ИИ помогает создавать ботов, с высокой степенью точности имитирующих поведение людей. Активно используются в ходе атак и дипфейки, которые уже достигли довольно высокого уровня правдоподобия. Их применяют в ходе атак как на обычных людей, так и на компании.

«Высокий потенциал искусственного интеллекта в кибератаках — не повод для паники, — комментирует ситуацию аналитик исследовательской группы департамента аналитики Positive Technologies Роман Резников. — Нужно реалистично смотреть в будущее, изучать возможности новых технологий и системно заниматься обеспечением результативной кибербезопасности. Логичная контрмера атакующему ИИ — более эффективный ИИ в защите, который поможет преодолеть нехватку специалистов для защиты от кибератак через автоматизацию многих процессов».

Телегу заподозрили в перехвате трафика и скрытой модерации

Сторонний клиент Telegram под названием «Телега», который в последние недели стал быстро набирать популярность на фоне проблем с доступом к Telegram в России, оказался в центре нового скандала. Группа анонимных исследователей заявила, что приложение якобы использует схему «Человек посередине» и может вмешиваться в трафик между пользователем и серверами Telegram.

Суть претензии такая: «Телега», по версии авторов анализа, работает не как обычный клиент Telegram, который напрямую подключается к дата-центрам мессенджера, а как промежуточное звено.

Исследователи утверждают, что приложение сначала получает с собственного API список серверов, которые подменяют стандартные адреса Telegram, а затем перенастраивает подключение клиента на инфраструктуру «Телеги».

На этом подозрения не заканчиваются. По данным анализа APK-файла и нативной библиотеки клиента, в «Телеге» якобы встроен дополнительный RSA-публичный ключ, которого нет в официальном клиенте Telegram. Исследователи утверждают, что этот ключ принимают серверы «Телеги», но не серверы самого Telegram. Из этого они делают вывод, что приложение потенциально способно перехватывать первичное рукопожатие MTProto, а значит — оказываться «посередине» между пользователем и настоящим сервером мессенджера.

 

Именно такой сценарий теоретически открывает дорогу к классической MITM-схеме: договориться с клиентом об одном ключе шифрования, с Telegram — о другом, а весь трафик между ними просматривать, сохранять или даже изменять. Независимого публичного подтверждения того, что это действительно происходило в реальной эксплуатации, на данный момент нет, но сама архитектура вызвала у исследователей серьёзные вопросы.

Отдельно в анализе упоминается ещё один тревожный момент: в «Телега», как утверждается, по умолчанию отключена Perfect Forward Secrecy. В обычном Telegram этот механизм нужен затем, чтобы даже в случае компрометации одного ключа нельзя было расшифровать старую переписку. Здесь же, по версии авторов разбора, использование PFS может управляться удалённо через конфиг с серверов «Телега».

 

Ещё одна претензия касается секретных чатов. Исследователи утверждают, что в клиенте они фактически отключены удалённым флагом и входящие запросы на секретный чат могут просто игнорироваться. То есть пользователь может даже не узнать, что кто-то пытался начать с ним зашифрованный сквозным шифрованием диалог.

Кроме того, в приложении нашли и признаки собственной системы модерации и фильтрации. По данным анализа, «Телега» может обращаться к отдельному API, чтобы проверять пользователей, каналы, чаты и ботов по внутреннему «чёрному списку». Если объект попадает под фильтр, клиент показывает заглушку о недоступности материала, причём внешне это может выглядеть так, будто ограничение наложила сама платформа.

Дополнительный резонанс вызвали найденные на поддоменах «Телега» тестовые стенды с названиями Zeus и Cerberus. Авторы анализа связывают их с системой обработки запросов на блокировку контента и оперативной модерацией сообщений, в том числе с ИИ-анализом, автоудалением и автобаном. Но здесь тоже важно оговориться: речь идёт именно о найденных тестовых панелях, а не о доказанном использовании всех этих инструментов в боевой среде.

Напомним, сегодня мы также писали, что команда мессенджера «Телега» прокомментировала обсуждение вокруг происхождения приложения и его технологической базы. Поводом стали публикации, в которых поднимались вопросы о возможной связи сервиса со структурами VK.

RSS: Новости на портале Anti-Malware.ru