Уязвимость в Windows Defender позволяет получить полный доступ к системе

Уязвимость в Windows Defender позволяет получить полный доступ к системе

Уязвимость в Windows Defender позволяет получить полный доступ к системе

3 апреля Microsoft выпустила обновления безопасности для Windows 10, которые должны исправить уязвимость в выполнении удаленного кода, влияющую на работу Windows Defender и других антивирусных продуктов. Обновления появились вчера, и компания сообщила, что за 48 часов их получат все пользователи Windows 10.

Задача нового патча исправить недостаток в Microsoft Malware Protection Engine (mpengine.dll), то есть в самом ядре Windows Defender.

«Злоумышленник, успешно воспользовавшийся этой уязвимостью, может ввести определённый код в учетную запись LocalSystem и взять под свой контроль всю систему», - предупреждает Microsoft, - «затем злоумышленник может устанавливать программы, просматривать, изменять, удалять данные или создавать новые учетные записи с полными правами пользователя».

Исследователь Google Project Zero Томас Даллиен, известный как Halvar Flake, выяснил, что злоумышленникам достаточно заставить Windows Defender или другие уязвимые антивирусные программы сканировать специально созданный файл, что повредить работу всей операционной системы. Microsoft предупреждает, что эти файлы могут быть расположены на веб-сайтах, в письме или мгновенном сообщении. В зоне риска находятся антивирусные программы, которые обеспечивают защиту устройства в режиме реального времени - в этом случае заражение произойдет мгновенно. Антивирусы с оффлайн-защитой не пострадают, если не будут сканировать вредоносный файл. 

Патч будет установлен автоматически, но прийдет отдельно от ежемесячных обновлений. 

Ранее мы рассказывали как Windows Defender способен распознавать различные угрозы с помощью искусственного интелекта

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru