За выборочную фильтрацию контента Google оштрафовали в России на 1,5 млн

За выборочную фильтрацию контента Google оштрафовали в России на 1,5 млн

За выборочную фильтрацию контента Google оштрафовали в России на 1,5 млн

Российские власти всё ещё не удовлетворены качеством блокировки запрещённого на территории страны контента в поисковой выдаче Google. За это суд в Москве оштрафовал интернет-гиганта на полтора миллиона рублей.

Соответствующее постановление, как передал ТАСС, вынес мировой суд Таганского района Москвы. Это повторное нарушение со стороны Google, так как в прошлом российские власти уже фиксировали недостаточную фильтрацию запрещённого контента.

Например, в начале прошлого месяца тот же Роскомнадзор составил протокол об административном правонарушении. По мнению ведомства, американская корпорация принимает недостаточнее меры по удалению нежелательного содержания из поисковой выдачи.

По подсчётам Роскомнадзора, более трети ссылок из реестра запрещённой на территории России информации остаются в поиске. Другими словами, Google выборочно подходит к фильтрации.

Получатся, это уже второй штраф в отношении Google по одному поводу. В декабре 2018 года корпорацию оштрафовали на 500 тысяч рублей.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru