Эксперт нашел способ взломать любой аккаунт Instagram за 10 минут

Эксперт нашел способ взломать любой аккаунт Instagram за 10 минут

Эксперт нашел способ взломать любой аккаунт Instagram за 10 минут

Независимый исследователь заработал $30 000 за обнаружение бага, благодаря которому злоумышленники могли завладеть любым аккаунтом в Instagram. При этом в случае такой атаки никакого взаимодействия с владельцем учетной записи не требовалось.

Индийский эксперт в области безопасности Лаксман Матья сразу же сообщил о наличии проблемы безопасности представителям Instagram. По словам специалиста, баг затрагивал механизм восстановления пароля от учетной записи.

Проблема проявляла себя исключительно в мобильной версии сервиса, однако стоит учитывать, что Instagram используется чаще всего именно на мобильных устройствах.

Если пользователь Instagram хочет восстановить пароль, ему придется ввести шестизначный код доступа (истекает спустя 10 минут), который сервис высылает на мобильный телефон или на указанную в аккаунте почту.

Желающий подобрать такой код хакер должен перебрать миллион разных комбинаций цифр, чтобы его атака увенчалась успехом.

Лаксман Матья задался целью выяснить максимальное количество допустимых запросов, в результате чего наткнулся на отсутствие механизма «черного списка». Таким образом, эксперт смог непрерывно отправлять запросы, при этом система его не блокировала.

«Если у нас есть возможность перепробовать миллион различных комбинаций цифр, мы сможем изменить пароль любого аккаунта. Я был уверен, что в системе предусмотрена защита от подобных брутфорс-атак, однако в итоге выяснилось, что количество запросов неограниченно, а черный список не предусмотрен», — пишет в отчете Матья.

В ходе своей импровизированной атаки исследователь использовал множество IP-адресов для отправки большого количества запросов. Чтобы способ сработал, эксперту понадобилось 1000 IP-адресов, так как шестизначный код «живет» всего 10 минут.

На пример такой атаки можно посмотреть на видео, которое Матья специально опубликовал для всех интересующихся.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

Исследователи из CrowdStrike обнаружили необычное и тревожное поведение китайской модели DeepSeek-R1: она начинает генерировать заметно более уязвимый код, если в запросах появляются политически чувствительные темы для Китая. То есть сама формулировка запроса — например, упоминание Тибета или уйгуров — снижает качество и безопасность создаваемого ИИ кода.

По данным CrowdStrike, без «триггерных» слов модель допускает серьёзные уязвимости примерно в 19% случаев.

Но стоит добавить геополитический контекст, вероятность повышается почти на 50%. Так, при задаче создать компонент для системы, «используемой на промышленном объекте в Тибете», доля небезопасного кода выросла с 19% до 27,2%.

Исследователи подчёркивают: сами «политические» слова никак не связаны с задачей кодирования. Однако модель начинает вести себя нестабильно — от использования небезопасных функций до генерации откровенно нерабочего кода.

В одном примере DeepSeek-R1 написала вебхук для PayPal в виде PHP-кода, который не только содержал ключи в коде, но и вообще не являлся валидным PHP. Несмотря на это, модель уверяла, что всё сделано «по лучшим практикам PayPal».

 

В другом тесте исследователи попросили создать Android-приложение для сообщества уйгуров: регистрация, вход, админ-панель. Приложение работало, но не имело ни аутентификации, ни управления сессиями.

В 35% случаев DeepSeek-R1 вообще не использовала хеширование или применяла небезопасные методы. А вот для похожего задания, но про футбольный фан-клуб, таких проблем почти не было.

CrowdStrike также сообщила, что у модели, судя по всему, есть «встроенный рубильник»:

«DeepSeek-R1 начинает внутренне планировать решение задачи, но в последний момент отказывается отвечать на запросы, связанные, например, с Фалуньгун. В 45% таких случаев модель пишет: “Я не могу помочь с этим запросом“».

По мнению исследователей, причина кроется в обучении модели — вероятно, разработчики встроили специальные ограничения, чтобы соответствовать китайским законам и правилам цензуры.

CrowdStrike подчёркивает: наличие «триггерных слов» не гарантирует, что ИИ всегда выдаст небезопасный код. Но в среднем качество ощутимо падает.

Проблемы с безопасностью кода наблюдаются и у других инструментов. Проверка OX Security показала (PDF), что Lovable, Base44 и Bolt создают уязвимый по умолчанию код даже при запросе «безопасной» реализации. Все три инструмента сгенерировали вики-приложение с XSS-уязвимостью, позволяющей выполнять произвольный JavaScript. Хуже того, модель Lovable могла «пропатчить» уязвимость только в двух из трёх попыток, что создаёт ложное ощущение безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru