AirBorne: 23 уязвимости в AirPlay позволяют захватывать устройства в сети

AirBorne: 23 уязвимости в AirPlay позволяют захватывать устройства в сети

AirBorne: 23 уязвимости в AirPlay позволяют захватывать устройства в сети

Плохие новости для владельцев «яблочных» устройств: исследователи из Oligo Security нашли в протоколе AirPlay и соответствующем SDK целых 23 уязвимости, с помощью которых можно удалённо взламывать устройства — причём в некоторых случаях без участия пользователя.

Они даже дали этой истории имя — AirBorne. И не зря: уязвимости позволяют злоумышленникам устроить что угодно — от RCE-атак (удалённое выполнение кода) и отказа в обслуживании, до обхода списков доступа, считывания файлов и даже создания самораспространяющихся «червей» в одной сети.

Какие устройства под угрозой?

Под раздачу попали:

  • iPhone и iPad (iOS/iPadOS 18.4),
  • Mac (Ventura 13.7.5, Sonoma 14.7.5, Sequoia 15.4),
  • Apple Vision Pro (visionOS 2.4),
  • и всё, что использует AirPlay SDK: колонки, ТВ, мультимедийные системы в авто и так далее.

Apple выпустила патчи 31 марта, но проблема в том, что не все устройства обновляются сразу. А пока они не обновлены — они уязвимы, даже если пользователь ничего не нажимает.

 

Самое опасное: RCE без единого клика

Две уязвимости — CVE-2025-24252 и CVE-2025-24132 — позволяют запускать 0-click червей. То есть один скомпрометированный гаджет может автоматически заражать другие устройства в той же сети.

А ещё есть баг CVE-2025-24206, который даёт возможность обходить подтверждение «Разрешить» при подключении AirPlay. Другими словами, можно без согласия пользователя подключиться и дальше атаковать.

По сути, злоумышленник может заразить один девайс — например, колонку с AirPlay или MacBook — и потом через локальную сеть «перекидываться» на другие гаджеты, вплоть до развертывания шпионского софта, шифровальщиков или даже атак на цепочки поставок.

Oligo и Apple рекомендуют:

  • Срочно обновить всё, что связано с AirPlay — как рабочие, так и личные устройства.
  • Выключить AirPlay, если вы им не пользуетесь.
  • Ограничить доступ по файрволу только для доверенных устройств.
  • Включить настройку AirPlay «только для текущего пользователя».

И не забывайте: по данным Apple, в мире активно используется более 2,35 миллиарда устройств с AirPlay — плюс десятки миллионов сторонних колонок, ТВ и авто с CarPlay.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru