Эксперты фиксируют восьмикратный рост мощности DDoS-атак

Эксперты фиксируют восьмикратный рост мощности DDoS-атак

Согласно статистике ProlexicTechnologies, в январе-марте 2013 года средняя мощность DDoS-атак повысилась на 718% и составила 48,25 Гб/с. Более того, эксперты отметили тенденцию к росту pps-показателя: в минувшем квартале он достиг 32,4 млн. пакетов в секунду. Этот показатель обычно не учитывается в статистических отчетах, однако атаки с высоким ppsнацелены, в первую очередь, на вывод из строя таких элементов инфраструктуры, как сетевые карты и граничные маршрутизаторы. Справиться с многомиллионным pps-потоком способны лишь самые дорогие устройства, порог остальных заведомо ниже.

Около 25% DDoS-атак, заблокированных Prolexic, составили инциденты мощностью менее 1 Гб/с, в 11% случаев этот показатель превысил 60 Гб/с. Самая мощная DDoS-атака была зафиксирована в марте — 130 Гб/с. Пытаясь противостоять атакам большой мощности, многие операторы сетей и интернет-провайдеры вынуждены зафильтровывать весь трафик на атакуемом IP-адресе, чтобы сохранить работоспособность остальных хостов в сети. Этот способ известен как nullrouting, или blackholing, и весьма неприятен для заблокированного клиента. Что касается, pps-показателя, в 22% случаев он превысил 20 млн., в 26% — опустился ниже 1 млн., что характерно для атак прикладного уровня. Самым «урожайным» месяцем оказался март, на который пришлось 44% квартальных DDoS‑атак, передает securelist.com.

По данным Prolexic, 76,54% DDoS‑атак были проведены с использованием протоколов 3-го и 4-го уровня, остальные — на прикладном уровне. Наибольшее распространение получили такие типы атак, как SYN flood (25,83%), HTTP GET flood (19,33%), UDP flood (16,32%) и ICMP flood (15,53%).   

Зафиксированные Prolexic квартальные и годовые изменения в краткой форме выглядят следующим образом:

по сравнению с 4 кварталом 2012 г.

  • средняя мощность DDoS‑атак увеличилась на 718%, с 5,9 до 48,25 Гб/с;
  • средняя продолжительность атаки возросла на 7,14%, с 32,2 до 34,5 часов;
  • число атак сетевого уровня повысилось на 3,65%, прикладного уровня — уменьшилось на 3,85%;
  • общее количество инцидентов увеличилось на 1,75%;

по сравнению с 1 кварталом 2012 г.

  • средняя мощность DDoS‑атак увеличилась на 691%, с 6,1 до 48,25 Гб/с;
  • средняя продолжительность атаки возросла на 21%, с 28,5 до 34,5 часов;
  • число атак сетевого уровня повысилось на 26,75%, прикладного уровня — на 8%;
  • общее количество инцидентов увеличилось на 21,75%. 

Список стран-источников DDoS‑трафика вновь возглавил Китай, хотя и с меньшим показателем (40,68% инцидентов). За ним в убывающем порядке следуют США (21,88%), Германия (10,59%) и новый участник непочетного рейтинга Иран (5,51%).

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru