Лаборатория Касперского представила прогноз сложных угроз на 2025 год

Лаборатория Касперского представила прогноз сложных угроз на 2025 год

Лаборатория Касперского представила прогноз сложных угроз на 2025 год

По мнению аналитиков Глобального центра исследований и анализа угроз «Лаборатории Касперского» (Kaspersky GReAT), в 2025 году злоумышленники будут чаще использовать в атаках устройства интернета вещей (IoT), технологии искусственного интеллекта, а также чаще встраиваться в цепочки поставок решений с открытым кодом.

По мнению Kaspersky GReAT, продолжат расширяться альянсы хактивистов. Их группировки будут чаще обмениваться инфраструктурой и инструментарием. Это, по прогнозу аналитиков, дает основание для ожидания роста эффективности хактивистских кампаний, в том числе с использованием шифровальщиков.

По оценке аналитиков, рост популярности технологий IoT приведет к росту количества подключений, которые часто остаются без защиты. Дополнительный риск создаст значительный рост количества приложений для управления IoT-устройствами, прежде всего, бытового назначения. Этим могут воспользоваться злоумышленники, которые, пользуясь ослаблением контроля, будут продвигать в магазинах приложений поддельные версии, которые позволят получить контроль за IoT устройствами.

Не исключено и то, что вредоносный код будут внедрять непосредственно в прошивки устройств, как это уже было в сентябре, когда было обнаружено более миллиона телеприставок с внедренным бэкдором.

В Kaspersky GReAT также считают, что стоит ожидать роста обнаружения атак на цепочки поставок на проекты с открытым кодом. Многие из таких проектов поддерживает очень небольшое количество разработчиков, часто за ними стоит и вовсе один человек. По некоторым оценкам, до 70% проектов с открытым кодом имеют неудовлетворительное обслуживание или заброшены. Все это делает такие проекты крайне уязвимыми для целевых атак.

Также злоумышленники начнут шире использовать C++ и Go, популярность которых продолжает расти. Это касается как создания их для разработки новых зловредов, так и эксплуатации уязвимостей, типичных для этих языков.

Злоумышленники также начнут шире использовать инструменты с искусственным интеллектом (ИИ). По мнению Kaspersky GReAT, наиболее популярны будут большие языковые модели (LLM) и технологии дипфейк.

LLM киберпреступники будут применять на этапе разведки для автоматизации поиска уязвимостей и сбора информации о нужных им технологиях. Атакующие также будут чаще использовать ИИ для создания вредоносных скриптов и генерации команд. При этом злонамеренные хакеры будут избегать использования платформ Google, OpenAI и Microsoft, пытаясь создавать локальные LLM или маскируя запросы к общедоступных платформам.

Дипфейки будут использоваться в технологиях социальной инженерии, чтобы действовать от имени других людей. Это позволит упростить получение необходимых данных.

Кроме того, по оценке Kaspersky GReAT, кибергруппировки будут компрометировать популярные модели искусственного интеллекта и открытые наборы данных, внедряя в них вредоносный код или необъективные данные. Причем обнаружить такую злонамеренную активность будет сложно. Не исключено также внедрение бэкдоров в популярные инструменты с использованием ИИ, прежде всего, с открытым кодом.

Kaspersky GReAT ожидают, что сохранится тенденция к использованию тактики использования уязвимых драйверов, или Bring Your Own Vulnerable Driver (BYOVD) в сложных атаках. Аналитики полагают, что что увеличится сложность таких атак. Так, могут появляться продвинутые вариации этой техники, например с применением устаревших или сторонних драйверов, которые обычно не так тщательно проверяются.

«Одной из самых известных кампаний этого года стало внедрение бэкдора в XZ — популярный инструмент сжатия с открытым исходным кодом, часто встречающийся в Linux-дистрибутивах. Злоумышленники применили методы социальной инженерии, чтобы получить постоянный доступ к среде разработки этого программного обеспечения, и оставались незамеченными на протяжении нескольких лет. Эта кампания демонстрирует необходимость вести более тщательный мониторинг содержимого проектов с открытым исходным кодом. Кроме того, злоумышленники продолжат эксплуатировать множество незащищённых IoT-устройств, многие из которых полагаются на устаревшие библиотеки с известными уязвимостями, что делает их лёгкой мишенью для взлома», — комментирует Игорь Кузнецов, директор Kaspersky GReAT.

На Википедии нашли галлюцинации в ИИ-переводах и ввели ограничения

У Википедии снова случился спор про ИИ, на этот раз из-за переводов. Редакторы ввели новые ограничения для части переводчиков, связанных с Open Knowledge Association (OKA), после того как в ряде ИИ-переводов нашли галлюцинации: подменённые источники, неподтверждённые фразы и даже абзацы, опиравшиеся на материалы, не связанные с темой статьи.

Сама OKA — это швейцарская некоммерческая организация, которая платит стипендии переводчикам и прямо пишет на своём сайте, что использует большие языковые модели, чтобы автоматизировать значительную часть работы.

В англоязычном сегменте Википедии у проекта есть отдельная страница, там сказано, что OKA финансирует переводчиков и работает с несколькими языками, включая русский, испанский, французский и немецкий.

Проблему заметили не «в теории», а на конкретных статьях. Один из редакторов, Ильяс Леблё, рассказал 404 Media, что при выборочной проверке быстро нашёл ошибки: где-то источники были перепутаны, где-то появлялись фразы без верификации, а в одном случае в статью про выборы во французский Сенат попали абзацы, вообще не подтверждавшиеся указанными материалами.

Отдельно редакторов смутило, как именно была организована работа. Публичные инструкции OKA для переводчиков на Meta-Wiki подтверждают, что организация обучает новичков и публикует свои рекомендации открыто. В обсуждении вокруг инцидента также всплывали указания использовать популярные LLM для чернового перевода и правки лидов статей; 404 Media пишет, что раньше в инструкциях фигурировал и Grok, хотя позднее акцент сместили на другие модели.

В итоге Википедия не стала запрещать ИИ-переводы целиком, но решила ужесточить подход именно к переводчикам OKA. По правилам, которые цитирует 404 Media, если такой переводчик за шесть месяцев получает четыре корректно вынесенных предупреждения за непроверяемый контент, то при следующем нарушении его могут заблокировать без дополнительных предупреждений. А материалы, добавленные таким участником, могут удалить, если за них не возьмёт ответственность другой редактор с хорошей репутацией.

У самой OKA своя версия истории. Основатель организации Джонатан Циммерманн заявил, что переводчикам платят почасово, а не за количество статей, и что фиксированной нормы публикаций у них нет. По его словам, организация делает ставку на качество, признаёт, что ошибки случаются, и уже усиливает контроль: вводит второй независимый этап проверки через другую LLM, но не как замену человеку, а как дополнительный фильтр перед ручной верификацией.

RSS: Новости на портале Anti-Malware.ru