МТС RED: 64% заказчиков не видят достойных российских NGFW

МТС RED: 64% заказчиков не видят достойных российских NGFW

МТС RED: 64% заказчиков не видят достойных российских NGFW

Аналитики МТС RED провели опрос среди своих заказчиков, темой которого стало импортозамещение межсетевых экранов нового поколения (Next-generation firewall, NGFW). Лишь 16% опрошенных завершили переход на российские средства сетевой безопасности.

Из упомянутых 16% только половина перешла на российские NGFW. Но самое печальное, что 64% респондентов просто не видят достойных отечественных аналогов иностранным межсетевым экранам нового поколения.

Среди опрошенных — более 100 сотрудников служб информационной безопасности российских организаций. 36% этих компаний со штатом до тысячи человек, 45% — до 5000, 18% — свыше 10 тысяч работников.

Даже учитывая определённую долю скепсиса в отношении российских NGFW, заказчики всё равно стремятся найти альтернативу зарубежных продуктам. Например, 27% опрошенных МТС RED сотрудников заявили, что в настоящее время в их компаниях идёт активное тестирование тех или иных Next-generation firewall.

Многие даже видят выход в развёртывании сразу нескольких межсетевых экранов, поскольку в настоящее время на отечественном рынке нет решения, полностью покрывающего потребности заказчика.

В качестве основной проблемы российских NGFW называется низкая отказоустойчивость (назвали две трети респондентов). Помимо этого, упоминались сбои отечественных средств сетевой безопасности в процессе анализа трафика, а также проблемы с работоспособностью на этапе подключения.

82% заказчиков считают одним из ключевых критериев при выборе MGFW именно надёжность работы. 40% опрошенных уточнили, что также очень важен уровень сервисной и технической поддержки со стороны разработчиков.

Среди важных характеристик отмечались скорость обработки трафика и масштабируемость решений.

Напомним, на днях мы анализировали, как отразится Указ Президента № 500 на импортозамещении NGFW.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru