Шлюз безопасности Ideco ICS теперь защищает пользователей от майнеров

Шлюз безопасности Ideco ICS теперь защищает пользователей от майнеров

Шлюз безопасности Ideco ICS теперь защищает пользователей от майнеров

Компания «Айдеко», российский производитель программных продуктов для построения сетевой инфраструктуры, представляет обновление флагманского решения. Шлюз безопасности Ideco ICS стал первым российским UTM-решением, позволяющим блокировать пулы криптомайнеров.

Новая группа правил в системе предотвращения вторжений блокирует работу криптомайнеров. Попытки подключения к пулам криптомайнеров журналируются и на основе этой информации администратор может расследовать происхождение программного обеспечения для майнинга (заражение вирусом-майнеров или недобросовестный сотрудник).

«Популярность криптовалют растет, и фокус злоумышленников сместился на самый простой способ получения прибыли с взломанных устройств — майнинг. Наше обновление предлагает пользователям эффективную защиту от киберугроз будущего и защищает их от нецелевого расхода электричества, вычислительных ресурсов и участия в бот-сетях», — отметил Дмитрий Хомутов, заместитель директора по развитию «Айдеко».

Также обновление будет включать возможность интеграции с несколькими доменами Active Directory. В версии 7.4.0 шлюз безопасности поддерживает интеграцию с несколькими доменами Active Directory. Теперь пользователей можно импортировать и авторизовывать из LDAP-группы или группы безопасности менее, чем за пять минут.

Помимо этого, компания улучшила работу модуля обработки веб-трафика. Оптимизация модуля контент-фильтра способствует ускорению обработки веб-трафика на 30%. Пользователи практически не будут замечать задержки трафика.

Интеграция с SIEM — еще одно нововведение. Для интеграции с используемыми SIEM-системами или другими внешними сервисами обработки логов в модуль мониторинга Ideco ICS добавлена возможность отправки логов на удаленный сервер по протоколу syslog.

Обновление доступно, в том числе, пользователям бесплатной редакции Ideco SMB и тестовых версий.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru