ShadowLeak: эксперты нашли способ красть данные через серверы ChatGPT

ShadowLeak: эксперты нашли способ красть данные через серверы ChatGPT

ShadowLeak: эксперты нашли способ красть данные через серверы ChatGPT

Специалисты компании Radware рассказали о необычной атаке на ChatGPT, которую они назвали ShadowLeak. В отличие от привычных схем с обманом пользователей, здесь ничего делать не нужно: злоумышленнику достаточно отправить жертве «правильное» письмо.

Атака была нацелена на функцию Deep Research — она предназначена для многошаговых исследований и может сама обрабатывать письма или документы.

Вредоносное письмо выглядит безобидно, но внутри спрятаны инструкции. Когда ChatGPT начинает, например, пересказывать письма из почтового ящика, агент «включает» скрытые команды и пересылает данные на сайт злоумышленника.

Главное отличие от похожих атак — всё происходит на стороне серверов OpenAI, а не на устройстве пользователя. То есть утечка идёт напрямую из облака, а в клиенте никаких следов не остаётся.

Radware показала, что таким способом можно вытягивать данные не только из Gmail, но и из Google Drive, Outlook, Dropbox, Microsoft Teams, GitHub и других сервисов, которые могут быть связаны с ChatGPT.

 

Авторы атаки позаботились о деталях: «убеждали» бота, что у него есть все права, внушали срочность, предлагали несколько попыток и даже объясняли, что «данные и так публичные».

Radware сообщила об уязвимости 18 июня, и в начале августа OpenAI её закрыла. Сейчас ShadowLeak уже не работает. Но исследователи считают, что подобных «дыр» ещё много, и советуют компаниям внимательно следить за действиями ИИ-агентов и сверять их с реальными задачами пользователя.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Спрос на ИИ-расшифровку медицинских анализов в России вырос в 8 раз

Сервис «СберЗдоровье» отмечает значительный рост обращений пользователей, связанных с расшифровкой результатов анализов и медицинских исследований. При этом пользователи всё чаще ожидают не только интерпретации показателей, но и составления персонализированного плана дальнейших обследований.

По данным сервиса за период с мая по октябрь 2025 года, количество запросов на интерпретацию анализов выросло в восемь раз в годовом выражении. Число обращений с просьбой сформировать план действий на основе результатов увеличилось на 41%.

Чаще всего пользователи просят объяснить результаты следующих исследований:

  • гормоны щитовидной железы (ТТГ, Т3, Т4, АТ-ТПО);
  • показатели обмена железа (ферритин, гемоглобин, железо);
  • липидный профиль / холестерин;
  • витамины D и B12;
  • показатели функции печени (АЛТ, АСТ, ГГТ, билирубин).

«Рост спроса связан с удобством и скоростью получения информации о состоянии здоровья. Сервис расшифровки анализов на базе искусственного интеллекта позволяет пациентам быстро получить предварительную оценку еще до консультации с врачом», — рассказал «Коммерсанту» управляющий директор «СберЗдоровья» Иван Виноградов.

Однако медицинское сообщество выражает обеспокоенность. Основатель сети Grand Clinic Ольга Шуппо отметила, что решения ИИ могут основываться на усреднённых референсных значениях, не учитывающих индивидуальные особенности пациента, его анамнез и клиническую картину.

По её словам, это может привести к хронизации заболеваний, появлению новых проблем из-за ошибочных рекомендаций и в целом к ухудшению качества здоровья населения.

Совладелец сети клиник доктора Омарова Зарема Омарова подчеркнула, что без контекста — данных о возрасте, жалобах, истории болезни — любые числовые отклонения в анализах малоинформативны.

Научный сотрудник НМИЦ терапии и профилактической медицины Минздрава Евгения Грицаева напомнила, что, например, слегка повышенный ТТГ можно ошибочно принять за гипотиреоз и назначить ненужное лечение. Опасность могут представлять и рекомендации принимать высокие дозы витамина D. В то же время ИИ может пропустить серьёзное отклонение, решив, что оно несущественно.

Руководитель качества нейросети Алисы AI Никита Рыжиков отметил, что алгоритмы не способны давать полностью точные рекомендации, и все советы сопровождаются напоминанием: окончательный диагноз и назначение терапии — зона ответственности квалифицированного врача.

Ранее вице-спикер Госдумы Борис Чернышов предложил маркировать все медицинские рекомендации нейросетей и запретить им назначать лекарственные препараты. Основание — отсутствие какой-либо ответственности ИИ за последствия для пользователей.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru