Преступлений с применением генеративного ИИ станет в 10 раз больше

Преступлений с применением генеративного ИИ станет в 10 раз больше

Преступлений с применением генеративного ИИ станет в 10 раз больше

По оценкам экспертов, в 2025 году количество преступлений, совершённых с использованием генеративного искусственного интеллекта (ИИ), может увеличиться в 10 раз по сравнению с 2024 годом.

Причём данные технологии начнут активно применять не только киберпреступники, но и представители традиционного криминального мира.

Первым известным случаем использования генеративного ИИ для реального преступления стал подрыв электромобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Злоумышленник воспользовался ChatGPT для планирования атаки.

«Рост преступлений, связанных с ИИ, официально не фиксируется, однако его масштабы можно оценить по числу ботов и сгенерированного ими контента. В 2025 году прирост подобных преступлений может составить от восьми до десятикратного увеличения по сравнению с предыдущим годом», — заявил руководитель департамента расследований T.Hunter Игорь Бедеров в комментарии для «Известий». Он отметил, что меры защиты можно обойти с помощью простых методов промт-инжиниринга, например, внедряя инструкции по созданию взрывных устройств в текстах художественных произведений.

По мнению экспертов, в 2025 году генеративный ИИ будут использовать до 90% киберпреступных группировок. Инструменты ИИ для составления фишинговых сообщений уже давно освоены, и их применение будет только расти. Генеральный директор Phishman Алексей Горелкин считает, что технологии нейросетей и чат-ботов могут взять на вооружение до 90% группировок, специализирующихся на социальной инженерии.

Старший аналитик Positive Technologies Екатерина Снегирёва подчеркнула, что генеративный ИИ активно используется для создания и модификации вредоносного кода.

Так, в июне 2024 года была зафиксирована фишинговая атака с использованием вредоносных скриптов, сгенерированных нейросетями. При этом 38% компаний применяют генеративный ИИ бесконтрольно, что значительно повышает риск утечек данных.

Эксперты F.A.C.C.T. прогнозируют: в 2025 году возрастёт число атак с использованием технологий дипфейков, массового автоматизированного фишинга и совершенствования методов поиска уязвимостей в программных системах. Впрочем, уже в 2024 году массовое использование дипфейков стало реальностью благодаря инструментам, позволяющим имитировать голос в режиме реального времени.

В России ситуация будет менее острой. Это связано с ограниченной доступностью зарубежных расширенных версий генеративного ИИ для граждан и встроенными мерами защиты в российских аналогах. Например, в отечественных системах предусмотрены фильтры на ключевые стоп-слова, которые невозможно обойти. Тем не менее регулирование использования генеративного ИИ требует постоянного уточнения и адаптации.

WhisperPair: Bluetooth-наушники можно взломать и подслушивать людей

Исследователи обнаружили критическую уязвимость в протоколе Google Fast Pair, которая позволяет злоумышленникам перехватывать управление Bluetooth-аудиоустройствами, подслушивать разговоры и даже отслеживать перемещения пользователей. Проблема получила идентификатор CVE-2025-36911 и название WhisperPair, она затрагивает сотни миллионов наушников, гарнитур и колонок по всему миру.

Уязвимость нашли специалисты из группы Computer Security and Industrial Cryptography при Католическом университете Лёвена (KU Leuven).

По их словам, проблема кроется не в смартфонах, а в самих аксессуарах, поддерживающих Fast Pair. Это означает, что под угрозой находятся не только владельцы Android-устройств, но и владельцы iPhone, если они используют уязвимые Bluetooth-наушники или колонки.

Суть проблемы довольно неприятная. По спецификации Fast Pair, аксессуар должен игнорировать запросы на сопряжение, если он не находится в режиме создания пары. Но на практике многие производители этот механизм попросту не реализовали. В результате любой посторонний девайс может начать процесс сопряжения без ведома пользователя — и успешно его завершить.

Как объясняют исследователи, злоумышленнику достаточно отправить аксессуару запрос Fast Pair. Если устройство отвечает, дальше можно оформить обычное Bluetooth-подключение — и всё это происходит без подтверждений, уведомлений и физического доступа к целевому пользователю.

Атаку можно провести с помощью практически любого Bluetooth-устройства — ноутбука, смартфона или даже Raspberry Pi — на расстоянии до 14 метров. Под удар попали аксессуары от Google, Jabra, JBL, Logitech, Marshall, Nothing, OnePlus, Sony, Soundcore, Xiaomi и других брендов.

После успешного подключения атакующий получает полный контроль над аудиоустройством. В худшем случае это позволяет подслушивать разговоры через микрофон наушников, а в более безобидном — внезапно включать звук на максимальной громкости.

Но и это ещё не всё. WhisperPair также позволяет использовать Google Find Hub для слежки за жертвой — если аксессуар ни разу не был сопряжён с Android-устройством. В таком случае злоумышленник может добавить его в свой Google-аккаунт и отслеживать перемещения владельца. Причём предупреждение о трекинге пользователь увидит лишь спустя часы или даже дни. Что особенно коварно, уведомление будет выглядеть так, будто устройство отслеживает сам владелец, из-за чего многие просто игнорируют его как баг.

 

 

Google признала проблему, выплатила исследователям $15 000 — максимальное вознаграждение по программе баг-баунти и совместно с производителями начала выпуск патчей. Однако, как подчёркивают исследователи, фиксы доступны пока не для всех уязвимых устройств.

Важно и то, что отключение Fast Pair на Android-смартфоне не защищает от атаки — протокол невозможно отключить на самих аксессуарах. Единственный надёжный способ защиты сейчас — установить обновление прошивки от производителя, если оно уже выпущено.

RSS: Новости на портале Anti-Malware.ru