Trend Micro: рекомендации Microsoft ставят под угрозу безопасность компьютера

Trend Micro: рекомендации Microsoft ставят под угрозу безопасность компьютера

Антивирусные аналитики компании из компании Trend Micro говорят, что рекомендации корпорации Microsoft исключить некоторые системные папки и расширения файлов из антивирусного сканирования могут поставить под угрозу безопасность компьютеров пользователей. Напомним, что ранее Microsoft опубликовала специальный бюллетень по безопасности, где говорится, что пользователи, исключающие из сканирования некоторые системные файлы и папки в Windows 2000, XP, Vista и Windows 7, а также в Windows Server 2003, 2008 и 2008 R2 могут повысить производительность своей системы.

"Эти файлы не подвержены риску заражения. Если вы сканируете их, в результате их блокировки антивирусом могут возникать серьезные проблемы с производительностью компьютера", - говорится в документе Microsoft. Среди файлов, которые корпорация рекомендует исключить из скандирования, выделюятся файлы, связанные с системой Windows Update и системой групповых политик, а также файлы с расширениями edb., .sdb and .chk. Помимо этого, в Редмонде говорят, что можно исключить из сканирования папку %windir%\security.

В Trend Micro говорят, что Microsoft делает ошибку, предоставляя такие данные. По мнению аналитиков этой компании, огласив список "неуязвимых" файлов и папок, Microsoft лишь спровоцирует хакеров атаковать именно их. Поэтому, есть вероятность того, что в ближайшее время появятся новые виды вредоносных кодов, атакующих указанные файлы.

Девид Санчо, аналитик Trend Micro говорит, что с точки зрения целесообразности, скорее всего, действительно мало смысла в проверке системы Windows Update или системы групповых политик, так как эти решения блокируются на уровне операционной системы и доступ к ним есть лишь о ограниченного набора системных служб, однако публично рекомендовать не защищать какие-то направления - это верный способ спровоцировать атаку именно там.

"Стратегически, хакеры могут попытаться разместить какие-то вредоносные коды именно в указанных папках, чтобы оттуда атаковать систему", - говорит Санчо.

Согласен с коллегами из Trend Micro и глава компании nCircle Network Security Эндрю Стормс, также полагающий, что эти данные следует распространять только среди узкого круга партнеров, а все остальным пользователям лучше руководствоваться собственными соображениями на данный счет.

Источник

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru