Хакеры могут использовать текстовые редакторы для повышения привилегий

Хакеры могут использовать текстовые редакторы для повышения привилегий

Хакеры могут использовать текстовые редакторы для повышения привилегий

Специалисты компании SafeBreach сообщают о том, что некоторые популярные текстовые редакторы могут быть использованы для повышения привилегий в системе. Разработчики этих программ на данный момент не планируют предпринимать какие-либо действия для устранения этой угрозы безопасности.

Некоторые текстовые редакторы позволяют пользователям запускать сторонний код и добавлять возможности приложения посредством расширений. Именно в этом эксперт видит проблему в безопасности.

Дор Азури (Dor Azouri), исследователь SafeBreach, проанализировал тестовые редакторы Sublime, Vim, Emacs, Gedit, pico и nano. По словам специалиста, лишь pico и nano безопасны, причиной этого являются как раз их ограниченные возможности.

Одна из проблем заключается в том, что пользователям, особенно на серверах Linux, часто может потребоваться использование текстовых редакторов с повышенными привилегиями. Если злоумышленник установит вредоносное расширение, он сможет добиться выполнения своего злонамеренного кода с повышенными привилегиями.

Чтобы успешно провести атаку, злоумышленнику сначала понадобится получить контроль над учетной записью пользователя со стандартным набором привилегий в системе. Этого можно достичь с помощью фишинга, социальной инженерии и других подобных методов. Далее в дело вступает обнаруженная экспертом SafeBreach уязвимость, которая поможет атакующему повысить привилегии злонамеренного кода в системе.

В зависимости от используемого редактора злоумышленник должен создать специальные скрипты или пакетные файлы и поместить их в определенные каталоги плагинов. В некоторых случаях атакующему, возможно, потребуется создать дополнительные файлы и включить расширения, чтобы атака успешно сработала, однако это не должно стать проблемой, учитывая, что у злоумышленника есть доступ к менее привилегированной учетной записи.

Например, в случае с Emacs киберпреступникам просто нужно добавить одну строку кода в файл «init.el», чтобы их код выполнялся при загрузке системы. Азури отметил, что для редактирования этого файла не нужны права root. В опубликованном SafeBreach отчете подробно описываются детали кибератак с использованием каждого проанализированного текстового редактора.

"Известны случаи, когда разработчики стороннего плагина, после того, как их продукт получит определенную популярность, снабжали обновления версий плагина вредоносным кодом. В других случаях злоумышленники получали доступ к коду плагина в результате взлома, после чего пользователям рассылались вредоносные обновления", - утверждает исследователь.

Разработчики текстовых редакторов, в которых была обнаружена проблема, сообщили, что не будут вносить никаких изменений в свои продукты, так как такого рода атака может использовать многие приложения, следовательно, выпущенные ими патчи не решат до конца проблему.

ИИ учится задавать вопросы сам себе — и от этого становится умнее

Даже самые продвинутые ИИ-модели пока что во многом лишь повторяют — учатся на примерах человеческой работы или решают задачи, которые им заранее придумали люди. Но что если искусственный интеллект сможет учиться почти как человек — сам задавать себе интересные вопросы и искать на них ответы?

Похоже, это уже не фантазия. Исследователи из Университета Цинхуа, Пекинского института общего искусственного интеллекта (BIGAI) и Университета штата Пенсильвания показали, что ИИ способен осваивать рассуждение и программирование через своеобразную «игру с самим собой».

Проект получил название Absolute Zero Reasoner (AZR). Его идея проста и изящна одновременно. Сначала языковая модель сама придумывает задачи по программированию на Python — достаточно сложные, но решаемые. Затем она же пытается их решить, после чего проверяет себя самым честным способом: запускает код.

 

Если решение сработало — отлично. Если нет — ошибка становится сигналом для обучения. На основе успехов и провалов система дообучает исходную модель, постепенно улучшая и умение формулировать задачи, и способность их решать.

Исследователи протестировали подход на открытой языковой модели Qwen с 7 и 14 миллиардами параметров. Оказалось, что такой «самообучающийся» ИИ заметно улучшает навыки программирования и логического мышления — и в некоторых тестах даже обгоняет модели, обученные на вручную отобранных человеческих данных.

 

По словам аспиранта Университета Цинхуа Эндрю Чжао, одного из авторов идеи, подход напоминает реальный процесс обучения человека:

«Сначала ты копируешь родителей и учителей, но потом начинаешь задавать собственные вопросы. И в какой-то момент можешь превзойти тех, кто тебя учил».

Идея «самоигры» для ИИ обсуждается не первый год — ещё раньше её развивали такие исследователи, как Юрген Шмидхубер и Пьер-Ив Удейер. Но в Absolute Zero особенно интересно то, как растёт сложность задач: чем умнее становится модель, тем более сложные вопросы она начинает ставить перед собой.

«Уровень сложности растёт вместе с возможностями модели», — отмечает исследователь BIGAI Цзилун Чжэн.

Сейчас подход работает только там, где результат можно легко проверить — в программировании и математике. Но в будущем его хотят применить и к более «жизненным» задачам: работе ИИ-агентов в браузере, офисных сценариях или автоматизации процессов. В таких случаях модель могла бы сама оценивать, правильно ли агент действует.

«В теории это может стать путём к суперинтеллекту», — признаёт Чжэн.

RSS: Новости на портале Anti-Malware.ru