Аккаунты Microsoft Teams можно было взломать с помощью .GIF-файла

Аккаунты Microsoft Teams можно было взломать с помощью .GIF-файла

Аккаунты Microsoft Teams можно было взломать с помощью .GIF-файла

Microsoft устранила проблему безопасности сервиса Microsoft Teams, которую можно было использовать в цепочке атак для получения контроля над аккаунтами пользователей. Потенциальным злоумышленникам в процессе требовался файл в формате .GIF.

Об уязвимости сообщили исследователи из компании CyberArk. По их словам, вредоносный .GIF-файл можно использовать для сбора пользовательских данных и получения доступа ко всем аккаунтам Teams в организации.

Специалисты подчеркнули, что проблемы безопасности затрагивают как десктопную, так и веб-версию корпоративной платформы от Microsoft.

Напомним, что база пользователей Microsoft Teams сегодня постоянно растёт из-за пандемии новой коронавирусной инфекции COVID-19 — организации вынуждены переводить сотрудников на дистанционную работу.

Команда CyberArk изучила корпоративную платформу и выявила интересную особенность: каждый раз, когда пользователь запускал приложение, платформа Teams создавала новый временный токен доступа, аутентифицированный через login.microsoftonline.com. Также генерировались и другие токены для доступа к поддерживаемым сервисам вроде SharePoint и Outlook.

Два файла cookies использовались для ограничения доступа к контенту — «authtoken» и «skypetoken_asm». Токен Skype отправлялся на teams.microsoft.com и его поддомены. Как обнаружили эксперты, два таких поддомена были уязвимы.

«Если атакующий сможет заставить пользователя посетить уязвимый перехваченный поддомен, браузер жертвы отошлёт cookies на сервер злоумышленника (после получения токена аутентификации). В этом случае атакующий может создать токен Skype», — объясняют специалисты.

После вышеописанных действий киберпреступник получал возможность выкрасть данные аккаунта жертвы. CyberArk опубликовала PoC-код, демонстрирующий, как потенциальные атакующие могут использовать уязвимость.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru