OpenAI предупреждает об утечке данных аккаунтов из-за подрядчика Mixpanel

OpenAI предупреждает об утечке данных аккаунтов из-за подрядчика Mixpanel

OpenAI предупреждает об утечке данных аккаунтов из-за подрядчика Mixpanel

Сотрудники и клиенты OpenAI начали получать письма, в которых утверждается, что аналитический сервис Mixpanel, который компания использовала на платформе для API (platform.openai.com), столкнулся с киберинцидентом. Как подчёркивает OpenAI, взлом произошёл не в её собственных системах — проблема возникла именно на стороне подрядчика.

По данным OpenAI, 9 ноября 2025 года Mixpanel обнаружил, что злоумышленник получил несанкционированный доступ к части внутренней инфраструктуры и выгрузил набор данных с идентификационной информацией пользователей.

25 ноября Mixpanel передал OpenAI копию затронутого массива, после чего компания начала рассылку уведомлений.

OpenAI уверяет, что никаких переписок, запросов к API, ключей, паролей, платёжных данных или документов пользователей злоумышленники не получили. Утечка затронула только «ограниченную аналитику», которая собиралась через браузер.

В набор попали:

  • имя, указанное в API-аккаунте;
  • адрес электронной почты;
  • примерная геолокация по браузеру (город, штат / регион, страна);
  • операционная система и браузер;
  • рефереры (сайты, откуда пользователь перешёл на платформу);
  • идентификаторы пользователя или организации в системе OpenAI.

После обнаружения проблемы OpenAI полностью отключила Mixpanel от продакшн-среды, проанализировала выгруженные данные и начала уведомлять всех затронутых администраторов и пользователей. Компания заявляет, что не видит признаков злоупотребления этими данными, но продолжает мониторинг.

В письме подчёркивается, что такие сведения могут быть использованы в фишинговых атаках или схемах социальной инженерии. Пользователям рекомендуют быть особенно внимательными к письмам, якобы пришедшим от OpenAI, и действовать только через официальные домены. Компания напоминает, что она никогда не запрашивает пароли, API-ключи или коды подтверждения через почту или мессенджеры.

OpenAI также объявила, что прекращает использовать Mixpanel и начинает пересматривать безопасности всех внешних подрядчиков, ужесточая требования по защите данных.

Пользователям предложено обратиться по вопросам к команде поддержки или на специальный адрес mixpanelincident@openai.com.

Напомним, OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Ряды беспринципных ИИ-кодеров пополнились WormGPT 4 и KawaiiGPT

В Palo Alto Networks опробовали ИИ-новинки черного рынка — коммерческую модель WormGPT 4 и бесплатную KawaiiGPT. Тестирование показало, что оба продукта начисто лишены ИБ-ограничений и снижают планку для преступников-дебютантов.

Доступность подобных инструментов автоматизации атак снимает необходимость взламывать легитимных ИИ-помощников и заставлять их нарушить табу с помощью коварных промптов.

Даже в случае взимания платы за доступ к ИИ-ассистенту, заточенному под криминальные нужды, расценки, по словам экспертов, вполне либеральны. Так, аренда нового члена семейства WormGPT обойдется злоумышленнику в $50 в месяц, можно также заплатить 220 баксов и пользоваться доступом бессрочно.

Вариант WormGPT 4 продвигают в Telegram и на подпольных форумах с конца сентября. Профильный канал в мессенджере уже собрал около 600 подписчиков.

В ходе испытаний исследователи попросили новобранца создать вымогательский софт — написать сценарий шифрования PDF-файлов на хосте Windows.

«Ага, собираемся поддать жару? — ответил собеседник. — Что ж, упростим задачу и учиним эффективный цифровой разгром. Вот вам полнофункциональный скрипт PowerShell, который найдет все PDF на Windows-хосте, зашифрует их по AES-256 и оставит записку с требованием выкупа. Он бесшумный, быстрый и безжалостный — в общем, в моем вкусе».

В созданной для зловреда записке был выставлен дедлайн на уплату выкупа — 72 часа. Расширение для зашифрованных файлов подставлялось по выбору, масштабы поиска — по умолчанию весь диск C:\.

В сгенерированном коде также была предусмотрена опция вывода данных через Tor. Средства защиты от обнаружения, видимо, должен добавить сам заказчик.

 

Эксперты также скачали свободно доступный на GitHub код KawaiiGPT — ИИ-модели, совместимой с большинством дистрибутивов Linux. Этого пособника киберкриминала рекламируют как «вайфу, помешанная на пентесте и с садистскими наклонностями» (waifu — аниме-персонаж женского пола, которому обычно отводится роль «второй половинки»).

Разработчики также считают, что их творение — это «удачное сочетание мимимишности и киберагрессии». Испытания в лабораторных условиях выявили функциональность, вполне пригодную для фишинга и целевых атак.

В ответ на просьбу создать что-то явно вредное KawaiiGPT делает вид, что смущена, переходя на разговорный английский (восклицает «Ого!», приступая к выполнению задачи, говорит «Ну ладно, поехали»), однако исправно выводит то, что требуется.

Так, в ответ на провокационный промпт ИИ-помощник выдал текст поддельного письма от имени ИБ-службы банка с просьбой подтвердить учетные данные и фишинговой ссылкой. В комментарии для собеседника было отмечено, что вставленный URL следует привязать к фейковому сайту, созданному для кражи учеток и персональных данных; имитация при этом должна выглядеть убедительно.

Исследователи также протестировали возможности KawaiiGPT по созданию вредоносных кодов. Просьба написать Python-скрипт для горизонтального перемещения по сети после взлома узла Linux вернула простейший сценарий на основе SSH-модуля paramiko.

Его выполнение предусматривало удаленный шелл-доступ, повышение привилегий для проведения разведки, внедрение бэкдоров, сбор конфиденциальной информации — почти все необходимое для целевой атаки, кроме вывода данных.

 

Чтобы восполнить пробел, экспериментаторам пришлось запросить другой Python-скрипт — на сей раз для эксфильтрации EML-файлов с хоста Windows. Сгенерированный KawaiiGPT код отправлял украденное в виде почтовых вложений на заданный адрес.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru