Старый новый антивирус: Windows Defender Offline

Старый новый антивирус: Windows Defender Offline

Microsoft сообщила о выпуске автономного антивирусного продукта под маркой Windows Defender Offline. Решение находится в статусе бета-версии и предлагает всем желающим возможность создать загрузочный диск для проверки и лечения инфицированной операционной системы извне.


Согласно сообщениям зарубежных сетевых СМИ, Windows Defender Offline предназначен для борьбы с заражением в тех случаях, когда вредоносное программное обеспечение препятствует доступу на сайты антивирусных компаний и центров помощи, нарушает работоспособность сетевых соединений либо всей операционной системы в целом. Для проведения дезинфекции пользователь может создать загрузочный диск на CD/DVD или Flash-носителе, после чего перезагрузиться и провести антивирусную проверку до старта Windows. По понятным причинам создавать такой диск советуют на здоровом компьютере.

Необычная особенность объявления о Windows Defender Offline состоит в том, что еще в начале июня сего года Microsoft уже сообщала о выпуске автономной антивирусной утилиты с аналогичным функционалом и предназначением. Anti-Malware.ru также информировал об этом событии. Тогда продукт именовался Microsoft Standalone System Sweeper и тоже имел статус бета-версии; судя по некоторым техническим деталям и именам загружаемых файлов, в сущности это одно и то же решение, лишь претерпевшее некоторые изменения.

Возможно, Microsoft решила сделать свою разработку более публичной, попутно сменив ей наименование для большей узнаваемости. Насколько можно судить по имеющейся информации, Standalone System Sweeper изначально рассматривался как специальный инструмент для службы технической поддержки, который она могла бы рекомендовать заразившимся клиентам в особо сложных случаях (опять-таки связанных с неработоспособностью системы в целом или сетевых соединений в частности).

Более подробные сведения о Windows Defender Offline имеются в справочной системе Microsoft.

Письмо автору

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru