Zeekr предупредил об отключении серых электромобилей

Zeekr предупредил об отключении серых электромобилей

Zeekr предупредил об отключении серых электромобилей

Китайский автопроизводитель Zeekr заявил о том, что в ближайшее время начнет отключать от фирменных сервисов электромобили, завезенные в России по «серым» схемам.

О данном решении сообщил телеграм-канал «Осторожно, новости». Автопроизводитель принял данное решение еще в июне.

Оно касается всех машин, предназначенных для китайского рынка, но вывезенных в другие страны, не только в Россию.

По данным «Автостата», за 8 месяцев в Россию было поставлено на учет более 5 500 электромобилей Zeekr из без малого 12 700 всех электромобилей, которые были ввезены в Россию. В случае блокировки может отключиться около трети всех машин от Zeekr.

Как сообщили «Осторожно, новости» автодилеры, проблему может решить использование специального прибора стоимостью 75 тысяч рублей, который отключает электромобиль от внешнего управления из Китая.

По оценкам представителей дилеров, данное решение может быть временным и такое устройство придется менять по мере того, как производитель будет пытаться противодействовать мерам для обхода блокировок.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru