Злоумышленники обходят защиту от DDoS с помощью смешанных ботнетов

Злоумышленники обходят защиту от DDoS с помощью смешанных ботнетов

Злоумышленники обходят защиту от DDoS с помощью смешанных ботнетов

В ходе анализа данных о DDoS-атаках, зафиксированных в III квартале 2023-го, эксперты StormWall обнаружили, что дидосеры изменили тактику: начали использовать ботнеты, состоящие из устройств, зараженных несколькими вредоносами.

Поскольку возможности и наборы техник у DDoS-зловредов различны, смешанные ботнеты обладают универсальностью и устойчивостью к средствам противодействия, не требуя изменения кода резидентных агентов.

В отчетный период такие гибриды, по данным StormWall, использовались для проведения DDoS-атак в разных регионах, в том числе в России, и показали высокую эффективность, так как многие компании пока не имеют надежной защиты от подобных угроз.

Данный тренд удивителен: ботоводы обычно стремятся снабдить своих зловредов средствами защиты от конкуренции, и те после запуска безжалостно прибивают чужие процессы по заданному списку.

Исследователи также отметили значительное увеличение количества многовекторных DDoS. Глобальный показатель повысился на 83% в сравнении с уровнем III квартала 2022 года, в России он возрос на 16%.

Количество DDoS-атак уровня приложений во всем мире, согласно представленной статистике, за год увеличилось на 48%. Россия тоже показала прирост (бизнес и госсектор), но более скромный — 14%.

На DNS-атаки, число которых тоже возросло, пришлось 3% зафиксированных инцидентов. Перегрузки по трафику на серверах DNS грозят нарушением доступа к сайтам и веб-сервисам. Для эффективного противодействия DNS-атакам эксперты советуют выработать комплексную стратегию, предусмотрев защиту и резервирование не только конечных ресурсов, но и DNS-инфраструктуры.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru