Русские кибершпионы написали сложный бэкдор для атак Microsoft Exchange

Русские кибершпионы написали сложный бэкдор для атак Microsoft Exchange

Русские кибершпионы написали сложный бэкдор для атак Microsoft Exchange

Российская кибершпионская группировка Turla разработала один из самых сложных бэкдоров, который используется для атак email-серверов Microsoft Exchange. Об этом заявили исследователи антивирусной компании ESET.

Согласно отчету (PDF) экспертов, вредонос, получивший имя LightNeuron, был специально разработан для атак на почтовые серверы Microsoft Exchange.

В сущности, он функционирует в качестве MTA (mail transfer agent), чего ранее не удавалось ни одному известному бэкдору.

«Насколько нам известно, это первая вредоносная программа, разработанная для атак на Microsoft Exchange. Ранее, например, Turla атаковала почтовые серверы с помощью вредоноса Neuron (также DarkNeuron) », — объясняет эксперт ESET Мэттью Фау.

«Другие киберпреступные группы используют более традиционные бэкдоры. А конкретно LightNeuron представляет собой первый зловред, который напрямую интегрируется в рабочий поток Microsoft Exchange».

Благодаря достаточно низкому уровню, на котором функционирует LightNeuron, бэкдор позволяет преступникам получать полный контроль над всем, что проходит через зараженный почтовый сервер.

Соответственно, Turla может перехватывать, перенаправлять и модифицировать как входящий, так и исходящий контент электронных писем.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru