Ботнет Aisuru обрушил на KrebsOnSecurity атаку мощностью 6,3 Тбит/с

Ботнет Aisuru обрушил на KrebsOnSecurity атаку мощностью 6,3 Тбит/с

Ботнет Aisuru обрушил на KrebsOnSecurity атаку мощностью 6,3 Тбит/с

На прошлой неделе известный блог о кибербезопасности KrebsOnSecurity пережил краткий, но мощнейший DDoS-удар — более 6,3 терабита данных в секунду. Для сравнения: это в 10 раз больше, чем атака 2016 года с участием ботнета Mirai, которая тогда вывела сайт из строя на четыре дня.

Как пишет сам Кребс, в этот раз сайт даже не моргнул — спасибо Google Project Shield, бесплатной защите от DDoS для ресурсов с важным общественным значением.

И всё бы ничего, да только нападение, по словам специалистов Google и Cloudflare, похоже на «показушку» — демонстрацию мощности нового ботнета Aisuru (он же Airashi), который, по сути, сносит всё, что движется.

 

Кто такой Aisuru и почему его стоит бояться

Aisuru — это ботнет нового поколения, построенный на базе взломанных IoT-устройств: роутеров, видеорегистраторов и прочей домашней и корпоративной электроники.

Команда китайских исследователей из QiAnXin XLab впервые зафиксировала его в августе 2024 года, когда тот атаковал крупную геймерскую платформу. Потом ботнет исчез, а осенью вернулся с новыми уязвимостями, включая неизвестный до того эксплойт в маршрутизаторах Cambium Networks.

В мае 2025 года Aisuru выдал 585 миллионов UDP-пакетов в секунду, загоняя их в случайные порты, буквально чтобы забить каналы связи у провайдеров. По словам инженера Google Дэмиана Меншера, большинство компаний просто не пережили бы такой шквал.

История повторяется? Отголоски Mirai

Кто-то скажет: «Мы это уже проходили». И будет прав. В 2016 году Mirai тоже начинался как частный ботнет, потом его код выложили в открытый доступ, и сеть захлестнула волна клонов.

То же может случиться и с Aisuru. Google считает, что если код Aisuru утечёт, ботнет раздробится на множество менее опасных копий — и их уже смогут гасить обычные провайдеры DDoS-защиты.

Но пока этого не произошло, Aisuru остаётся одной из самых опасных цифровых пушек в мире, способной одним нажатием клавиши положить кого угодно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники под видом соцопросов собирают данные для дипфейков

Одной из целей массовых телефонных опросов от имени различных исследовательских организаций и центров социологии становится сбор голосовых образцов для создания дипфейков.

Об этом РИА Новости рассказала заместитель директора по продуктам VisionLabs Татьяна Дешкина.

По её словам, чтобы создать качественную голосовую подделку, злоумышленникам требуется запись продолжительностью не менее 20 секунд, при этом голос должен звучать ровно, без интонаций и посторонних шумов. Поэтому их цель — удержать собеседника на линии как можно дольше. Тематика социологических опросов служит удобным прикрытием для такой активности.

Для придания естественности и обхода защитных механизмов мошенники часто добавляют в запись дополнительные звуковые эффекты — например, имитацию плохой связи или фоновый шум. Как подчеркнула Татьяна Дешкина, эти особенности приходится учитывать при разработке новых версий систем для распознавания дипфейков.

Наибольшую опасность представляют так называемые комбинированные дипфейки — когда синтезированный голос накладывается на поддельное изображение или видео. Такие фальсификации используются для создания фейковых профилей в социальных сетях и мессенджерах, через которые отправляются сообщения якобы от имени реальных людей. Распознать такую подделку крайне сложно. Однако, по словам эксперта, в силу сложности реализации подобные атаки пока не получили массового распространения.

«Финансовые организации и государственные сервисы могут защитить пользователей с помощью многофакторной аутентификации и систем обнаружения дипфейков. В ближайшем будущем мобильные устройства, соцсети и мессенджеры, скорее всего, тоже получат встроенные технологии для распознавания контента, созданного с помощью нейросетей», — подытожила Татьяна Дешкина.

Во второй пакет антимошеннических инициатив, который планируется внести в Госдуму осенью, с большой вероятностью включат поправки в Уголовный кодекс. Они предполагают признание использования технологий искусственного интеллекта, включая дипфейки, отягчающим обстоятельством при совершении преступлений. Такая мера предлагается на фоне стремительного роста преступлений с применением ИИ, особенно заметного в 2025 году.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru