В ходе фейковых интервью разработчикам софта подсовывают Python-бэкдор

В ходе фейковых интервью разработчикам софта подсовывают Python-бэкдор

В ходе фейковых интервью разработчикам софта подсовывают Python-бэкдор

Злоумышленники запустили новую кампанию, в которой используется социальная инженерия в атаках на разработчиков софта. Под маской собеседования девелоперам подсовывают бэкдор на Python.

Специалисты компании Securonix отслеживают новую кибероперацию под кодовым именем DEV#POPPER и связывают её с группировкой из Северной Кореи. В отчёте исследователи указывают на следующие особенности кампании:

«В ходе этих фейковых интервью разработчиков часто просят совершить ряд действий, среди которых обязательно присутствует загрузка и запуск некоего софта».

«Как правило, скачать программу предлагают со всем знакомого источника вроде GitHub, что должно придать софту вид легитимности. Тем не менее загруженное приложение содержит вредоносную составляющую в формате Node JS, которая в случае запуска заражает компьютер девелопера».

При подготовке к атаке киберпреступники размещают на GitHub архив в формате ZIP, который, судя по всему, и отправляется жертве в процессе собеседования.

В архиве лежит файл, на первый взгляд представляющийся безобидным npm-модулем. На деле же это вредоносный JavaScript-файл, известный под именем BeaverTail — классический троян-стилер, ворующий данные пользователей.

У BeaverTail также есть спутник — бэкдор InvisibleFerret, написанный на Python. Последний загружается с удалённого сервера и собирает в системе жертвы информацию. Кроме того, InvisibleFerret способен выполнять команды, отслеживать содержимое буфера обмена и записывать нажатия клавиш.

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru