Преступлений с применением генеративного ИИ станет в 10 раз больше

Преступлений с применением генеративного ИИ станет в 10 раз больше

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

97% компаний в России внедряют ИИ, но 54% не видят его ценности

UserGate изучила, как российские компании внедряют инструменты на базе ИИ и что мешает делать это быстрее. Опрос прошёл в январе 2026 года, в нём участвовали 335 топ-менеджеров компаний с выручкой от 100 млн рублей в год. Картина получилась довольно показательная: 97% компаний уже используют ИИ, тестируют его в пилотах или собираются внедрять в ближайшее время.

То есть искусственный интеллект из разряда «модного тренда» окончательно перешёл в категорию рабочих инструментов.

Чаще всего ИИ применяют для вполне прикладных задач. На первом месте — генерация отчётов и аналитики (42%). Далее идут оптимизация сетевой инфраструктуры (38%), анализ больших массивов логов (37%), ускорение расследований инцидентов (35%) и повышение эффективности Help Desk (32%).

Иными словами, бизнес в первую очередь использует ИИ там, где он помогает сэкономить время и ресурсы или усилить функции безопасности.

Интересно, что приоритеты зависят от масштаба компании. В корпоративном сегменте более 60% респондентов указали анализ больших логов как ключевое направление — что логично при объёмах данных в крупных ИТ-ландшафтах. В среднем бизнесе на первый план выходит оптимизация сетевой инфраструктуры (45%).

При этом 7% компаний пока вообще не рассматривают внедрение ИИ. Главные причины — неясная ценность технологии (54%) и неопределённость рисков (38%). Также среди барьеров называют отсутствие чёткого распределения ответственности (29%), ограниченные бюджеты (29%) и нехватку экспертизы (17%). По сути, речь идёт не столько о скепсисе, сколько о нехватке понимания, как именно внедрять ИИ и как управлять связанными с ним рисками.

Отдельно респондентов спросили, какие технологии окажут наибольшее влияние на кибербезопасность в ближайшие 12 месяцев. Лидером стали ИИ и машинное обучение — их назвали около половины представителей коммерческого и государственного сегментов. Даже те компании, которые пока осторожничают с практическим внедрением, всё равно рассматривают машинное обучение как ключевой фактор трансформации ИБ в среднесрочной перспективе.

Как отмечает руководитель отдела стратегической аналитики UserGate Юлия Косова, бизнес уже активно использует ИИ в операционных и защитных сценариях, но ожидания рынка зачастую опережают текущую практику. Дальнейший эффект, по её словам, будет зависеть от зрелости процессов, качества данных и способности управлять рисками.

RSS: Новости на портале Anti-Malware.ru