143 фейковых сайта выдавали себя за Здоровую Россию для продажи БАДов

143 фейковых сайта выдавали себя за Здоровую Россию для продажи БАДов

143 фейковых сайта выдавали себя за Здоровую Россию для продажи БАДов

Специалисты компании F6 выявили 143 фейковых сайта, которые используют название государственной программы «Здоровая Россия» и несуществующей онлайн-клиники. На этих ресурсах предлагают оставить номер телефона для «бесплатной консультации врача» по самым разным проблемам — от морщин и давления до простатита и запоров.

На деле же под видом врачебных рекомендаций людям пытаются продать сомнительные лекарства и БАДы.

Бренд «Здоровая Россия» известен с 2009 года, когда его запустили по решению правительства. Но уже в 2015–2016 годах им активно прикрывались мошенники, приглашавшие граждан на бесплатное обследование в якобы медицинские центры, где затем навязывали услуги и пустышки в кредит. После 2020 года схема «переехала» в онлайн, а в 2025-м, судя по находке F6, злоумышленники готовят её масштабное возвращение.

 

По данным аналитиков, 117 из 143 обнаруженных сайтов (82%) были зарегистрированы в один день — 4 августа 2025 года, а остальные — после октября 2024-го. На всех страницах указаны реквизиты реальной медицинской компании из Москвы, не имеющей отношения к этим ресурсам.

Схема работает просто: человек оставляет контакты, ему звонит «специалист» и под видом индивидуальных назначений предлагает купить препараты, которых «нет в аптеках» и которые можно приобрести только дистанционно.

 

Эксперты предполагают, что на этот раз мошенников удалось застать ещё до запуска кампании — сайты пока не продвигаются в поиске и соцсетях. Но риски для пользователей всё равно очевидны.

«Обращение к подобным сайтам несёт множество рисков. Пользователь может не только потерять деньги, которые заплатит за дистанционное приобретение сомнительного препарата, но и подвергнуться повторной атаке мошенников под предлогом выплаты “компенсации” за такую покупку. В разговорах с фейковыми специалистами пользователи могут доверить им чувствительные данные о своём здоровье, которые злоумышленники позже могут использовать как против них самих, так и их родственников. Наконец, приём препаратов по совету телефонного незнакомца может негативно отразиться на здоровье», – отмечает Тамара Цкиманаури, старший аналитик департамента Digital Risk Protection компании F6.

Чтобы не попасться на подобный обман, эксперты советуют проверять адрес сайта через WhoIs, удостоверяться в наличии лицензии у клиники и дипломов у её врачей, помнить, что диагноз и лечение ставятся только при личном приёме, и покупать лекарства исключительно в проверенных аптеках.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru