Android-троян Godfather наплодил почти 1200 двойников в 57 странах

Android-троян Godfather наплодил почти 1200 двойников в 57 странах

Android-троян Godfather наплодил почти 1200 двойников в 57 странах

Операторы MaaS-сервисов (Malware-as-a-Service, вредонос как услуга) активно множат количество образцов троянов для Android, чтобы повысить процент заражений. В 2023 году в Zimperium зарегистрировали 1171 клон банкера Godfather, и это не предел.

Семплы мало чем отличаются друг от друга и, по всей видимости, генерируются автоматизированными средствами (с помощью скриптов или ИИ-помощников). Однако даже незначительные перемены способны ввести в заблуждение антивирус, который к тому же, по данным аналитиков, установлен лишь у четверти пользователей мобильных устройств.

Объявившийся пару лет назад Godfather умеет вести запись экрана, регистрировать нажатия клавиш, перехватывать звонки и СМС второго этапа аутентификации, инициировать банковские переводы. В конце прошлого года список его целей включал 237 банковских приложений, используемых в 57 странах, а украденную трояном информацию аффилиаты MaaS-сервиса выводили в девять стран — в основном европейских и в США.

В ходе интервью Dark Reading руководитель исследовательских работ Zimperium Нико Кьяравильо (Nico Chiaraviglio) рассказал, что в 2022 году им не удалось собрать и десятка образцов Godfather. Когда операторы MaaS-сервиса начали применять полиморфизм, чтобы помочь клиентам повысить эффективность атак, число таких находок возросло в сто раз.

Их примеру последовали создатели других известных банкеров для Android, но в меньших масштабах. В результате количество семплов Nexus в коллекции экспертов увеличилось до 498, Saderat — до 300, PixPirate — до 123. Кьяравильо также отслеживает еще одно плодовитое семейство, пока безымянное; его численность уже превысила 100 тысяч.

Типовой антивирусный сканер, по словам эксперта, не способен справиться с таким количеством зловредных родственников, обладающих уникальными сигнатурами. Здесь нужны адаптивные решения, работающие по правилам корреляции, или поведенческий анализ — лучше с привлечением ИИ.

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru