Immunet 3.0 - сам себе вирусный аналитик

Immunet 3.0 - сам себе вирусный аналитик

...

Компания Sourcefire представила новое антивирусное решение - Immunet 3.0. Это первый выпуск данного продукта, состоявшийся после того, как Sourcefire приобрела его производителя за 21 млн. долларов. Обновленная разработка активно использует возможности "облачных" технологий и позволяет любому желающему попробовать себя в написании своих собственных противовирусных сигнатур.



До вышеупомянутой сделки Sourcefire и Immunet совместно трудились над этим продуктом, который ранее был широко известен как ClamAV для Windows. Новая версия по-прежнему работает на базе той же антивирусной системы с открытым кодом, однако называется теперь по-другому ("Immunet 3.0, на основе технологий ClamAV"); кроме того, интеграция указанной системы в решение для оффлайн-сканирования стала более тесной.


К числу основных особенностей Immunet 3.0 разработчики относят функцию повторного обращения к "облаку". Это нововведение обеспечивает непрерывную обработку файлов: если какой-либо объект на момент его первого сканирования отсутствовал в базе данных Immunet, однако спустя какое-то время был в нее добавлен, антивирусная система сможет ретроактивно его обработать без запуска повторного исследования.


Представитель Sourcefire отметил, что вся информация в базах данных постоянно находится в движении - обновляется, пересматривается, удаляется; соответственно, работающее с этими базами клиентское приложение всегда будет обеспечено наиболее актуальными сведениями о вирусной обстановке.


Также в Immunet 3.0 появился механизм отката, который позволит избежать нежелательных последствий в случае выпуска некорректных обновлений.


Еще одно нововведение состоит в том, что теперь пользователям бесплатной версии продукта будет доступен функционал оффлайн-сканирования - ранее эта возможность была привилегией владельцев платного выпуска. Приобретение лицензии по-прежнему гарантирует предоставление технической поддержки, а также открывает доступ к подсистеме поиска руткитов.


Кроме того, в случае необходимости пользователь сможет написать свои собственные антивирусные сигнатуры для борьбы с ранее не известным вредоносным программным обеспечением. Сделать это можно будет двумя способами: через командную строку или при помощи особого мастера, который, по замыслу создателей, поможет справиться с непростой задачей даже пользователю со средним уровнем подготовки.


В дальнейшем Sourcefire рассчитывает построить на базе Immunet оборонное решение для предприятий и выйти с ним на рынок средств корпоративной антивирусной защиты.


eSecurity Planet

" />

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru