Более 7000 ресурсов, замаскированных под гослотереи, прикрыты в 2023-м

Более 7000 ресурсов, замаскированных под гослотереи, прикрыты в 2023-м

Более 7000 ресурсов, замаскированных под гослотереи, прикрыты в 2023-м

Специалисты компании F.A.C.C.T. совместно с представителями «Столото» в первом полугодии 2023-го заблокировали 7358 мошеннических веб-ресурсов, замаскированных под государственные лотереи.

Из общей цифры 7018 составили сайты, 252 — посты, аккаунты и группы в социальных сетях и мессенджерах, 87 — фейковые мобильные приложения. Помимо этого экспертам удалось ликвидировать один почтовый адрес, запускающий фишинговые рассылки.

В целом команда F.A.C.C.T. считает борьбу с мошенническими ресурсами успешной: во втором квартале их стало меньше, чем в первом. Для сравнения: в I квартале 2023 заблокировали 6718 сайтов злоумышленников, во втором — всего 300.

 

Если сравнивать с 2022 годом, число мошеннических ресурсов, действующих под видом «Столото», снизилось в два с половиной раза (18 709 против 7 358).

В F.A.C.C.T. напомнили, что государственные лотереи в России организовываются исключительно Министерством финансов РФ и Министерством спорта РФ под полным надзором ФНС России.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru