Росгвардия теперь сможет разгонять митинги лазером

Росгвардия теперь сможет разгонять митинги лазером

Росгвардия теперь сможет разгонять митинги лазером

Росгвардия обзавелась новой техникой, которая поможет ей при желании разогнать толпу. Сообщается, что структура закупила специальные автомобили марки «Газель», в которых дополнительно установлена система комплексного нелетального воздействия (СКВН), состоящего из лазерных излучателей.

Весь комплекс антимитинговых мер обошелся Росгвардии в 65,2 миллионов рублей. Эту информацию поведало издание «Открытые медиа». С соответствующим документом можно ознакомиться на сайте госзакупок.

Толпу протестующих теперь смогут разгонять звуком и светом. Звуковой метод обеспечивает «акустическое давление» на расстоянии 10 метров в 135 дБ (по мощности можно сравнить со звуком взлетающего самолета).

А в случае светового воздействия установка может сгенерировать поток, который ослепит человека на какое-то время.

Такие системы будут установлены на обычные автомобили марки «Газель», которые будут окрашены в серый цвет с красной полосой:

Получить новое антимитинговое оборудование Росгвардия сможет до конца этого месяца.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru