Новый вредоносный ИИ-инструмент DarkBERT будет обучаться на всём дарквебе

Новый вредоносный ИИ-инструмент DarkBERT будет обучаться на всём дарквебе

Новый вредоносный ИИ-инструмент DarkBERT будет обучаться на всём дарквебе

Разработчик FraudGPT, чат-бота для киберпреступников, готовит ещё более сложный ИИ-инструмент такого же принципа работы — DarkBERT. Основной «фишкой» DarkBERT будет обучение на всех площадках дарквеба.

Как и его собратья (WormGPT и FraudGPT), новый инструмент взял за основу Google Bard. В этот раз разработчик решил реализовать интеграцию с технологией распознавания изображений — Google Lens.

Известно, что за созданием чат-ботов для злоумышленников стоит человек с ником «CanadianKingpin12». Помимо DarkBERT, специалист работает ещё над одной похожей тулзой — DarkBART.

Исследователи из SlashNext предупреждают в блоге об опасности таких инструментов: они понижают порог вхождения для начинающих киберпреступников. В результате малоквалифицированные «хакеры» могут составлять качественные фишинговые письма, которые будут использоваться в целевых атаках.

«На самом деле мы наблюдаем стремительный прогресс — от WormGPT к FraudGPT, а теперь и к DarkBERT — всего лишь за месяц работы девелопера этих инструментов», — отмечают в SlashNext.

Что касается функциональности, DarkBERT будет представлять собой вредоносную версию Google Bard и задействовать большую языковую модель (БЯМ).

Интересно, что CanadianKingpin12 поделился с исследователями в Telegram видео, на котором демонстрируется обучение DarkBERT на ресурсах дарквеба. Интеграция с Google Lens позволит использовать не только текст, но и изображения, что выгодно отличает его от основанных на ChatGPT инструментах.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru