Группа Lurk могла вывести миллионы со счетов руководителей ЛДПР

Группа Lurk могла вывести миллионы со счетов руководителей ЛДПР

Группа Lurk могла вывести миллионы со счетов руководителей ЛДПР

Согласно новой информации, возникшей вокруг деятельности киберпреступной группы Lurk, злоумышленники вывели крупные суммы денег со счетов лиц, руководящих партией ЛДПР. Напомним, что Константин Козловский, один из лидеров Lurk, в прошлом сознался во взломе серверов Демократической партии США.

Согласно полученному от адвоката документу, киберпреступникам удалось похитить более 4 миллионов рублей у Жириновского, 99 миллионов рублей у его сына, а у первого заместителя фракции ЛДПР в Госдуме РФ Вадима Деньгина — около 1,7 миллионов евро.

Дождаться официальных комментариев от представляющих партию лиц пока не представляется возможным.

СМИ ссылаются на некие источники, близкие к органам, которые подтвердили факт проведения целевых кибератак на правящую верхушку ЛДПР.

Как уже отмечалось ранее, в декабре прошлого года Константин Козловский, осужденный екатеринбургский киберпреступник, признался во взломе серверов Демократической партии США. По словам Козловского, он делал это под руководством сотрудников ФСБ.

Как утверждает следствие, злоумышленник действовал в рамках группы Lurk, которую задержали в 2016 году. Помимо взлома Национального комитета Демократической партии США и электронной переписки Хиллари Клинтон, екатеринбуржец также «взламывал очень серьезные военные предприятия США и прочие организации».

Чуть позже в том же месяце Козловский удивил всех, заявив, что создание вредоносных программ WannaCry и Lurk курировали сотрудники ФСБ. В частности, обвинения Козловского коснулись майора ФСБ Дмитрия Докучаева, который, как утверждает хакер, мог самостоятельно вести работу с зараженными объектами.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru