Киберпреступники используют GitHub для размещения фишинговых ресурсов

Киберпреступники используют GitHub для размещения фишинговых ресурсов

Киберпреступники используют GitHub для размещения фишинговых ресурсов

С середины 2017 года злоумышленники использовали GitHub для размещения фишинговых веб-сайтов. Об этом говорит отчет, предоставленный компанией Proofpoint, занимающейся защитой от утечек данных.

По словам исследователей, фишеры располагали свои сайты в каноничном домене $github_username.github.io, при этом используя графику какого-нибудь известного бренда, чтобы ввести пользователей в заблуждение.

HTML-код был незначительно обфусцирован, чтобы скрыть истинное его назначение. В действительности же он отправлял учетные данные в запросе HTTP POST на другой сайт.

«Отправка украденных учетных данных на другой скомпрометированный сайт — отличительная черта всех фишинговых ресурсов, обнаруженных нами в github.io», — пишут эксперты Proofpoint.

«Более того, похоже на то, что фишеры не использовали традиционные PHP-методы, так как платформа github.io не предоставляет такой возможности».

В некоторых случаях домен github.io использовался для перенаправления трафика, это делалось для того, чтобы продлить жизнь фишинговой страницы.

Специалисты Proofpoint вычислили имя пользователя, который модифицировал файлы в затронутых репозиториях, — «greecpaid». Несмотря на то, что аккаунт этого пользователя неактивен в сервисе GitHub, ему недавно удалось обновить некоторые фишинговые ресурсы.

Все вычисленные аккаунты GitHub, занимавшиеся вредоносной деятельностью, были заблокированы 19 апреля.

В марте стало известно, что Университет штата Северная Каролина (NCSU) на протяжении шести месяцев сканировал миллиарды файлов, размещенные в публичных репозиториях GitHub. Как показали результаты, более 100 000 репозиториев «сливали» API-токены и криптографические ключи.

Android подключает Gemini к борьбе с телефонными мошенниками

Телефонные мошенники становятся всё изобретательнее: они комбинируют утечки персональных данных с продуманной психологией и могут выглядеть очень убедительно даже для технически подкованных людей. В ответ Google усиливает защиту владельцев Android-смартфонов, делая ставку на ИИ.

По данным компании, её системы ежемесячно помогают блокировать более 10 млрд подозрительных звонков и сообщений.

Теперь Google расширяет использование модели Gemini, работающей прямо на устройстве, чтобы выявлять сложные схемы обмана в реальном времени.

В свежем обновлении безопасности компания рассказала историю ИТ-специалиста из Калифорнии, который едва не попался на уловку. Ему позвонили якобы из банка, номер был подменён, собеседник знал его имя и адрес и уверенно рассказывал о «подозрительной операции».

Даже понимая, как работают такие схемы, мужчина задержался на линии дольше обычного. Спасла его только всплывшая на экране подсказка о возможном мошенничестве. После этого он завершил разговор и проверил информацию через банковское приложение.

Функция Scam Detection анализирует разговор во время звонка и ищет характерные для мошенников речевые паттерны. Обработка происходит локально — модель Gemini работает прямо на смартфоне. Google подчёркивает, что аудио не сохраняется и никуда не отправляется. При этом функция по умолчанию отключена, пользователь сам решает, включать её или нет.

 

Сначала защита была доступна только на устройствах Pixel в ряде стран, включая США и Великобританию. Теперь её начинают внедрять и на другие флагманы — например, на Samsung Galaxy S26 в США.

Похожий подход применяется и к текстовым сообщениям. Защита от мошенничества в Google Messages расширяется более чем на 20 стран и поддерживает несколько языков, включая английский, французский, немецкий, испанский и другие. На новых устройствах (например, будущая серия Pixel 10 и Galaxy S26) Gemini интегрируется непосредственно в приложение сообщений. Это позволяет системе анализировать не только отдельные фразы, но и контекст общения.

Такой подход особенно важен для борьбы со схемами «романтических» афер и фейковых предложений о работе. В них злоумышленники действуют постепенно, месяцами выстраивая доверие, поэтому традиционные фильтры часто не видят явных признаков угрозы. Локальная ИИ-модель должна распознавать более тонкие признаки манипуляции.

RSS: Новости на портале Anti-Malware.ru