Уязвимость в Windows позволяла украсть серверные учетные данные

Уязвимость в Windows позволяла украсть серверные учетные данные

Уязвимость в Windows позволяла украсть серверные учетные данные

Специалисты выявили уязвимость в классе технологий «удалённый вызов процедур» (RPC), позволяющие удаленному злоумышленнику добраться до контроллера доменов при определенной сетевой конфигурации, а также выполнить вредоносный код.

Кроме того, с помощью обнаруженной проблемы атакующий может модифицировать мапирование сертификата сервера и провести так называемый спуфинг.

Брешь отслеживают под идентификатором CVE-2022-30216, она присутствует в непропатченных версиях Windows 11 и Windows Server 2022. С выходом июльского набора обновлений Microsoft закрыла эту дыру.

Однако исследователь из Akamai Бен Барнс, обнаруживший CVE-2022-30216, опубликовал отчет, в котором описал технические подробности бага. Успешная атака гарантирует киберпреступнику полный доступ к контроллеру домена, его службам и данным.

Корни уязвимости уходят в сетевой протокол “SMB over QUIC“, отвечающий за связь с сервером. Если условный злоумышленник аутентифицируется как пользователь домена, баг позволит ему заменить файлы на SMB-сервере и направить их подключенным клиентам.

В случае с опубликованным PoC экспертам удалось продемонстрировать эксплуатацию бреши, в результате которой они смогли утащить учетные данные. Для этого исследователи организовали атаку на NTLM-ретранслятор, поскольку этот протокол использует слабую степень защиты аутентификации, выдавая учетные данные и ключи сессии.

Как только вызывается уязвимая функция, жертва тут же отправляет обратно сетевые данные для входа на устройство, находящееся под контролем злоумышленников. После этого атакующие могут удаленно выполнить код на машине жертвы.

Самым лучшим выходом из этой ситуации будет обновление систем. Отключать службу исследователи не рекомендуют.

Напомним, что в июне стало известно о DFSCoerce — новой атаке, позволяющей получить контроль над Windows-доменом.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru