Яндекс Маркет внедрил ИИ для ускоренного выявления контрафакта

Яндекс Маркет внедрил ИИ для ускоренного выявления контрафакта

Яндекс Маркет внедрил ИИ для ускоренного выявления контрафакта

Яндекс Маркет запустил систему машинного обучения, которая автоматически обрабатывает жалобы покупателей на подозрение в контрафакте. Теперь первичная проверка обращений происходит без участия сотрудников — ИИ анализирует сообщение, определяет его смысл и формирует сводку по продавцу, если подобных жалоб несколько.

Раньше такие обращения разбирали вручную, что занимало заметно больше времени.

Теперь алгоритм сортирует сообщений в несколько раз больше за тот же период и передаёт итоговый отчёт сотруднику службы контроля качества. Специалист уже принимает окончательное решение — скрывать товар, ограничивать работу магазина или применять другие меры.

В компании отмечают, что благодаря комплексному подходу количество жалоб на контрафакт продолжает снижаться: от общего числа заказов оно сейчас составляет около 0,08%.

По словам представителей Яндекс Маркета, новая система помогает быстрее выявлять проблемных продавцов и уменьшает операционные затраты, поскольку часть рутинной работы теперь выполняют алгоритмы.

Напомним, сервисы Яндекса утром 24 ноября работали с перебоями. Судя по сообщениям, проблемы затронули сразу несколько направлений: часть сайтов и сервисов, размещённых в Yandex Cloud, оказались недоступны, а у некоторых пользователей не проходит оплата в «Яндекс Такси».

Нас в Anti-Malware.ru это тоже не обошло стороной. Долгое время сотрудники наблюдали ошибку 504 на своих сайтах anti-malware.ru и amlive.ru.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI предупреждает об утечке данных аккаунтов из-за подрядчика Mixpanel

Сотрудники и клиенты OpenAI начали получать письма, в которых утверждается, что аналитический сервис Mixpanel, который компания использовала на платформе для API (platform.openai.com), столкнулся с киберинцидентом. Как подчёркивает OpenAI, взлом произошёл не в её собственных системах — проблема возникла именно на стороне подрядчика.

По данным OpenAI, 9 ноября 2025 года Mixpanel обнаружил, что злоумышленник получил несанкционированный доступ к части внутренней инфраструктуры и выгрузил набор данных с идентификационной информацией пользователей.

25 ноября Mixpanel передал OpenAI копию затронутого массива, после чего компания начала рассылку уведомлений.

OpenAI уверяет, что никаких переписок, запросов к API, ключей, паролей, платёжных данных или документов пользователей злоумышленники не получили. Утечка затронула только «ограниченную аналитику», которая собиралась через браузер.

В набор попали:

  • имя, указанное в API-аккаунте;
  • адрес электронной почты;
  • примерная геолокация по браузеру (город, штат / регион, страна);
  • операционная система и браузер;
  • рефереры (сайты, откуда пользователь перешёл на платформу);
  • идентификаторы пользователя или организации в системе OpenAI.

После обнаружения проблемы OpenAI полностью отключила Mixpanel от продакшн-среды, проанализировала выгруженные данные и начала уведомлять всех затронутых администраторов и пользователей. Компания заявляет, что не видит признаков злоупотребления этими данными, но продолжает мониторинг.

В письме подчёркивается, что такие сведения могут быть использованы в фишинговых атаках или схемах социальной инженерии. Пользователям рекомендуют быть особенно внимательными к письмам, якобы пришедшим от OpenAI, и действовать только через официальные домены. Компания напоминает, что она никогда не запрашивает пароли, API-ключи или коды подтверждения через почту или мессенджеры.

OpenAI также объявила, что прекращает использовать Mixpanel и начинает пересматривать безопасности всех внешних подрядчиков, ужесточая требования по защите данных.

Пользователям предложено обратиться по вопросам к команде поддержки или на специальный адрес mixpanelincident@openai.com.

Напомним, OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru