Apple Mac можно взломать удаленно в процессе настройки устройства

Apple Mac можно взломать удаленно в процессе настройки устройства

Apple Mac можно взломать удаленно в процессе настройки устройства

Исследователи в области кибербезопасности продемонстрировали эксплойт, который позволит злоумышленникам скомпрометировать компьютеры Mac от Apple при первом подключении к беспроводной сети Wi-Fi.

О проблеме сообщили Джесси Эндал, главный сотрудник службы безопасности в Fleetsmith, и Макс Беленджер из Dropbox.

Согласно докладу, представленному экспертами на конференции Black Hat, ошибки находятся в некоторых инструментах настройки этих десктопных компьютеров.

Специалисты обратили внимание на два инструмента — Device Enrolment Program и Mobile Device Management, они используются для того, чтобы сотрудники предприятия смогли пройти процесс настройки устройства для организации. Их можно использовать для работы из дома.

Фактически эти инструменты позволяют немедленно сконфигурировать устройства для подключения к экосистеме компании после первого соединения с сетью Wi-Fi.

«Мы обнаружили ошибку, которая позволяет скомпрометировать устройство и установить на него вредоносную программу. Все это можно сделать до того, как пользователь первый раз войдет в систему», — объясняет Джесси Эндал.

«Таким образом, еще до того, как пользователь впервые увидит рабочий стол, его компьютер уже будет скомпрометирован».

Совершить успешную атаку злоумышленникам поможет пресловутая техника «Человек посередине» (man-in-the-middle, атака посредника). С ее помощью атакующий может загрузить вредоносные файлы.

Основная брешь кроется в отсутствии сертификата при использовании Mobile Device Management для определения того, какие приложения должны быть установлены. То есть загрузка приложений никак не верифицируется.

Несмотря на то, что эксплойт для этого недостатка уже существует, киберпреступникам понадобится доступ к определенному набору инструментов и привилегий, чтобы атака действительно сработала. Такие целевые атаки будут интересны, например, государственным хакерам, так как позволяют проникнуть в сеть предприятия и раздобыть всю внутреннюю информацию.

Apple уже устранила эту уязвимость с выпуском macOS High Sierra 10.13.6 в июле, но эксперты говорят, что это не до конца решает данную проблему. Не получившие обновления устройства все еще уязвимы для атак.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru