ИИ стал новой точкой атаки на бизнес: подмена биометрии, утечки, сбои

ИИ стал новой точкой атаки на бизнес: подмена биометрии, утечки, сбои

ИИ стал новой точкой атаки на бизнес: подмена биометрии, утечки, сбои

Специалисты проанализировали три быстроразвивающихся направления в сфере искусственного интеллекта — агентский ИИ (agentic AI), ИИ на периферийных устройствах (edge AI) и квантовый ИИ (quantum AI). Каждое из них открывает новые возможности, но при этом создаёт новые риски: от утечек данных и сбоев в работе систем до аварий и подмены биометрии.

Агентский ИИ: умный помощник с уязвимостями

Агентский ИИ — это автономные системы, которые анализируют данные, принимают решения и могут взаимодействовать с другими сервисами без участия человека.

По оценкам Gartner, к 2028 году такие решения смогут автоматизировать до 15% повседневных задач в бизнесе.

Но у этой автоматизации есть и оборотная сторона. Если злоумышленники вмешаются в работу агента — например, подменят данные или внедрят вредоносный код в систему — он начнёт принимать неправильные решения. Это может привести к сбоям в работе компаний, нарушению безопасности и другим последствиям. В некоторых случаях ИИ может даже начать действовать в интересах атакующего, не осознавая этого.

Edge AI: когда ИИ прямо в устройстве

Появление большого числа устройств интернета вещей (IoT) ускорило развитие edge AI — систем, которые обрабатывают данные прямо на устройстве, без постоянного подключения к облаку. Это важно, например, для медицины или транспорта, где задержки недопустимы.

Однако такие устройства часто уязвимы: они могут использовать устаревшее ПО, быть слабо защищены или использовать небезопасные настройки. Кроме того, они подвержены сетевым атакам (например, DDoS, спуфинг или «человек посередине»), а сами ИИ-модели — манипуляциям с входными данными. Всё это может привести к утечкам информации или сбоям в работе систем.

Квантовый ИИ: пока экзотика, но с серьёзными рисками

Квантовые технологии только начинают внедряться в ИИ, но уже рассматриваются для задач в медицине, логистике, энергетике и других отраслях. Они позволяют быстрее обрабатывать сложные задачи и требуют меньше энергии, чем классические суперкомпьютеры.

На практике такие системы чаще всего доступны через облачные платформы. Это означает, что возможны атаки на инфраструктуру провайдеров: кража архитектуры моделей, обучающих данных или внедрение уязвимостей на этапе обучения. Вред может быть серьёзным — от ошибок в медицинских ИИ до некорректного распознавания подозрительных операций в финансах. Кроме того, квантовые технологии могут усиливать старые методы атак — например, ускорять взлом паролей.

Хотя сейчас хакеры чаще используют проверенные схемы, эксперты считают, что это может быстро измениться. Поэтому важно не просто защищать сами ИИ-модели, но и учитывать, как они взаимодействуют с бизнес-процессами. Нужно ограничивать доступ ИИ к конфиденциальной информации, внедрять контрольные механизмы и обучать сотрудников — иначе даже самая современная технология может стать уязвимостью.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI предупреждает об утечке данных аккаунтов из-за подрядчика Mixpanel

Сотрудники и клиенты OpenAI начали получать письма, в которых утверждается, что аналитический сервис Mixpanel, который компания использовала на платформе для API (platform.openai.com), столкнулся с киберинцидентом. Как подчёркивает OpenAI, взлом произошёл не в её собственных системах — проблема возникла именно на стороне подрядчика.

По данным OpenAI, 9 ноября 2025 года Mixpanel обнаружил, что злоумышленник получил несанкционированный доступ к части внутренней инфраструктуры и выгрузил набор данных с идентификационной информацией пользователей.

25 ноября Mixpanel передал OpenAI копию затронутого массива, после чего компания начала рассылку уведомлений.

OpenAI уверяет, что никаких переписок, запросов к API, ключей, паролей, платёжных данных или документов пользователей злоумышленники не получили. Утечка затронула только «ограниченную аналитику», которая собиралась через браузер.

В набор попали:

  • имя, указанное в API-аккаунте;
  • адрес электронной почты;
  • примерная геолокация по браузеру (город, штат / регион, страна);
  • операционная система и браузер;
  • рефереры (сайты, откуда пользователь перешёл на платформу);
  • идентификаторы пользователя или организации в системе OpenAI.

После обнаружения проблемы OpenAI полностью отключила Mixpanel от продакшн-среды, проанализировала выгруженные данные и начала уведомлять всех затронутых администраторов и пользователей. Компания заявляет, что не видит признаков злоупотребления этими данными, но продолжает мониторинг.

В письме подчёркивается, что такие сведения могут быть использованы в фишинговых атаках или схемах социальной инженерии. Пользователям рекомендуют быть особенно внимательными к письмам, якобы пришедшим от OpenAI, и действовать только через официальные домены. Компания напоминает, что она никогда не запрашивает пароли, API-ключи или коды подтверждения через почту или мессенджеры.

OpenAI также объявила, что прекращает использовать Mixpanel и начинает пересматривать безопасности всех внешних подрядчиков, ужесточая требования по защите данных.

Пользователям предложено обратиться по вопросам к команде поддержки или на специальный адрес mixpanelincident@openai.com.

Напомним, OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru