В дарквебе продаются более 100 000 украденных аккаунтов ChatGPT

В дарквебе продаются более 100 000 украденных аккаунтов ChatGPT

В дарквебе продаются более 100 000 украденных аккаунтов ChatGPT

На торговые площадки дарквеба в период с июня 2022 года по май 2023-го просочились более 100 тысяч скомпрометированных аккаунтов OpenAI ChatGPT. Одних индийских учётных данных исследователи насчитали 12 632.

По данным компании Group-IB, аккаунты обнаружились в логах вредоносных программ, крадущих учётные данные. Эти инфостилеры также продаются на маркетплейсах тёмной сети.

«Число логов, содержащих взломанные аккаунты, достигло своего пика в мае 2023 года — 26 802. За последний год Азиатско-Тихоокеанский регион продемонстрировал самую большую цифру украденных учётных данных», — гласит отчёт Group-IB.

Другие страны, в которых было найдено наибольшее количество скомпрометированных аккаунтов: Пакистан, Бразилия, Вьетнам, Египет, США, Франция. Марокко, Индонезия и Бангладеш.

 

Подавляющее большинство логов с украденными учетными записями приходится на инфостилера Raccoon, а после него идут небезызвестные Vidar с RedLine.

«Многие организации интегрируют ChatGPT в свои процессы. Например, сотрудники могут использовать бота для оптимизации кода. Поскольку стандартная конфигурация ChatGPT сохраняет все переписки, в руки злоумышленников могут попасть важные данные, включая логины и пароли», — подчеркнул Дмитрий Шестаков из Group-IB.

Исследователи взломали защиту Apple Intelligence через инъекцию промпта

Исследователи рассказали о недавно пропатченной уязвимости в Apple Intelligence, которая позволяла обходить встроенные ограничения и заставлять локальную языковую модель выполнять действия по сценарию атакующего.

Подробности атаки описаны сразу в двух публикациях. По словам авторов исследования, им удалось объединить две техники атаки и через инъекцию промпта добиться выполнения вредоносных инструкций на устройстве.

Как объясняют специалисты, запрос пользователя сначала проходит через входной фильтр, который должен отсекать опасный контент. Если всё выглядит безопасно, запрос отправляется в саму модель, а затем уже готовый ответ проверяет выходной фильтр. Если система замечает что-то подозрительное, вызов API просто завершается с ошибкой.

Чтобы обойти эту схему, исследователи собрали эксплойт из двух частей. Сначала они использовали строку с вредоносным содержимым в перевёрнутом виде и добавляли Unicode-символ RIGHT-TO-LEFT OVERRIDE. За счёт этого на экране текст отображался нормально, а вот в «сыром» виде для фильтров оставался перевёрнутым. Это помогало пройти проверку на входе и выходе.

 

Второй частью цепочки стала техника Neural Exec. По сути, это способ подменить или переопределить исходные инструкции модели так, чтобы она начала следовать уже командам атакующего, а не базовым системным ограничениям.

В итоге первая техника позволяла обмануть фильтры, а вторая — заставляла модель вести себя не так, как задумано. Для проверки исследователи прогнали 100 случайных сценариев, комбинируя системные промпты, вредоносные строки и внешне безобидные тексты, например фрагменты из статей Wikipedia. В этих тестах успешность атаки составила 76%.

О проблеме Apple уведомили ещё в октябре 2025 года. С тех пор компания усилила защитные механизмы, а патчи вошли в состав iOS 26.4 и macOS 26.4.

RSS: Новости на портале Anti-Malware.ru