За баги в мобильных приложениях Яндекса теперь можно получить 1 млн руб.

За баги в мобильных приложениях Яндекса теперь можно получить 1 млн руб.

За баги в мобильных приложениях Яндекса теперь можно получить 1 млн руб.

Яндекс выделил мобильные приложения в отдельное направление «Охоты за ошибками» (Bug Bounty) и увеличил размер максимальной выплаты за найденную ошибку с 300 тысяч до 1 млн рублей.

Увеличение выплат, как надеются в компании, позволит привлечь больше исследователей в области кибербезопасности.

Программа «Охота за ошибками» — один из инструментов «Яндекса» для проверки безопасности приложений и усиления защиты пользовательских данных. Она является постоянно действующей и развивается с 2012 года.

Перечень приложений, которые могут исследовать белые хакеры, расположен по следующему адресу. Наиболее высокое вознаграждение вручат тем исследователям, которые смогут получить доступ к аутентификационным данным пользователей, к критически важным данным, которые обрабатывает приложение или сервис (например, платежным, сведениям о поездках или заказах), а также изменять логику работы приложений или сервисов.

Вознаграждение, как отметили в компании, будет зависеть от популярности приложения, влияния уязвимости на безопасность данных пользователей и других факторов.

В 2023 году компания вдвое увеличила инвестиции в цифровую безопасность, направив 6 млрд рублей на усиление защиты систем хранения данных, развитие технологий защиты от DDoS-атак, борьбу с мошенничеством и другие направления. Кроме того, Яндекс регулярно проходит аудиты и подтверждает, что сервисы соответствуют стандартам безопасности.

В марте представители компании заявили, что этичные хакеры получили за обнаруженные в 2023 году уязвимости 70 млн рублей.

ИИ заполонил хакерские форумы и начал раздражать самих киберпреступников

Форумы «чёрных» хакеров и киберпреступников заполонил контент, сгенерированный нейросетями. Его активно продвигают владельцы площадок, нередко на платной основе. Однако самих пользователей таких форумов всё сильнее раздражают большие объёмы низкокачественного ИИ-контента.

К такому выводу пришли исследователи из Эдинбургского университета. Они проанализировали почти 100 тыс. переписок с хакерских форумов, посвящённых искусственному интеллекту, за период с ноября 2022 года — момента выхода первой публично доступной версии ChatGPT — до конца 2025 года.

Как оказалось, пользователей раздражает вмешательство ИИ-ассистентов, которых продвигают владельцы площадок, а также большое количество контента, созданного нейросетями. Кроме того, появление ИИ-резюме в поисковых системах привело к снижению посещаемости форумов.

Между тем такие форумы выстраивали свою репутацию годами. Эти площадки стали не только местом поиска заказов, обмена инструментами и торговли массивами украденных данных, но и пространством для обычного общения. Однако всё чаще пользователи не пишут посты сами, а делегируют это ИИ-ассистентам. Это раздражает тех, кто приходит на такие форумы именно за живым взаимодействием.

Злоумышленники также пытаются использовать искусственный интеллект в атаках. В некоторых сценариях это действительно даёт заметный эффект — например, при автоматизации операций социальной инженерии или генерации фишинговых сообщений. В таких случаях ИИ позволяет даже в массовых атаках повысить конверсию до уровня, который раньше был характерен скорее для целевого фишинга.

Авторы исследования также указывают на активное применение ИИ в схемах с ботами в мессенджерах и мошенничестве на сайтах знакомств, где используются дипфейки и образы несуществующих людей.

Однако при написании вредоносного кода с помощью ИИ результаты, как правило, не впечатляют — примерно так же, как и при создании легитимного кода. Качество обычно остаётся низким. А в случае хакерских инструментов ошибки и уязвимости, характерные для ИИ-сгенерированного кода, могут даже раскрывать инфраструктуру их авторов.

Пока исследователи не видят радикального эффекта от использования ИИ в киберпреступной среде. Особенно это касается заметного снижения порога входа. Также не зафиксировано существенного влияния ИИ на бизнес-модели и другие процессы таких сообществ — ни в положительную, ни в отрицательную сторону.

RSS: Новости на портале Anti-Malware.ru