Группа Lurk могла вывести миллионы со счетов руководителей ЛДПР

Группа Lurk могла вывести миллионы со счетов руководителей ЛДПР

Группа Lurk могла вывести миллионы со счетов руководителей ЛДПР

Согласно новой информации, возникшей вокруг деятельности киберпреступной группы Lurk, злоумышленники вывели крупные суммы денег со счетов лиц, руководящих партией ЛДПР. Напомним, что Константин Козловский, один из лидеров Lurk, в прошлом сознался во взломе серверов Демократической партии США.

Согласно полученному от адвоката документу, киберпреступникам удалось похитить более 4 миллионов рублей у Жириновского, 99 миллионов рублей у его сына, а у первого заместителя фракции ЛДПР в Госдуме РФ Вадима Деньгина — около 1,7 миллионов евро.

Дождаться официальных комментариев от представляющих партию лиц пока не представляется возможным.

СМИ ссылаются на некие источники, близкие к органам, которые подтвердили факт проведения целевых кибератак на правящую верхушку ЛДПР.

Как уже отмечалось ранее, в декабре прошлого года Константин Козловский, осужденный екатеринбургский киберпреступник, признался во взломе серверов Демократической партии США. По словам Козловского, он делал это под руководством сотрудников ФСБ.

Как утверждает следствие, злоумышленник действовал в рамках группы Lurk, которую задержали в 2016 году. Помимо взлома Национального комитета Демократической партии США и электронной переписки Хиллари Клинтон, екатеринбуржец также «взламывал очень серьезные военные предприятия США и прочие организации».

Чуть позже в том же месяце Козловский удивил всех, заявив, что создание вредоносных программ WannaCry и Lurk курировали сотрудники ФСБ. В частности, обвинения Козловского коснулись майора ФСБ Дмитрия Докучаева, который, как утверждает хакер, мог самостоятельно вести работу с зараженными объектами.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru