Суд в Москве приговорил семерых хакеров к длительному заключению

Суд в Москве приговорил семерых хакеров к длительному заключению

Суд в Москве приговорил семерых хакеров к длительному заключению

Замоскворецкий суд Москвы сегодня признал семерых хакеров виновными во взломе ряда сайтов банков и приговорил к наказанию от 5,5 до 8 лет заключения. Как отметила представитель суда, хакеры осуществляли неправомерный доступ к охраняемой законом компьютерной информации, осуществляли взломы сайтов, размещали вредоносные программы и т.п.

"Осужденные признаны виновными в участии в преступном сообществе, в совершении нескольких эпизодов мошенничества в сфере компьютерной информации, часть осужденных - в покушении на такое мошенничество или же в пособничестве в нем, а также в неправомерном доступе к компьютерной информации", - сообщили ТАСС в пресс-службе суда.

"Итогом сложных системных действий, производимых с незаконно полученной компьютерной информацией, стало хищение денежных средств, расположенных на счетах юридических лиц и индивидуальных предпринимателей", - сказали в суде.

Ущерб от действий подсудимых составил более 25 млн рублей.

Согласно приговору суда Роман Кулаков и Сергей Шумарин приговорены к 5,5 годам заключения, Илья Брагинский - к 6 годам и 2 месяцам, Дмитрий Федотов - к 7 годам, Валерий Горбунов - к 7,5 годам, Владимир Попов и Артем Пальчевский - к 8 годам заключения каждый. В отношении последнего приговор был оглашён заочно, а сам обвиняемый объявлен в розыск. Отбывать наказание, осужденные будут в колонии общего режима.

"Особенностью этого преступного сообщества, было то, что оно состояло из ряда функционально и территориально обособленных структурных подразделений. При этом деятельность группы отличалась масштабностью - преступления затронули территорию нескольких субъектов Российской Федерации", - отметили в суде.

Так, Пальчевский, будучи исполнителем преступлений и осуществляя свою деятельность по месту жительства, производил "взлом" сайтов банков, после чего размещал на их интернет-страницах элементы, производящие переадресацию той или иной информации на необходимый ему сервер с программным обеспечением (ПО), созданным Федотовым. Как отмечается в приговоре, Пальчевский смог обеспечить распространение вредоносного ПО, которое будучи запущенным на компьютере пользователя собирало всю необходимую информацию об операционной системе электронно вычислительной машины и антивирусном программном обеспечении, после чего осуществляло отправку собранной информации на сервер управления и обеспечивало удаленный доступ. Таким образом хакеры получали доступ к счетам потерпевших и похищали находившиеся на счетах денежные средства.

"Участники преступной организации при совершении преступлений использовали различные способы конспирации: скрывали реальный IP-адрес компьютера, применяли модемы, зарегистрированные на лиц, которые в действительности их не использовали, шифровали переписку, использовали сетевые псевдонимы (никнеймы)", - рассказали в суде.

"Заявленные гражданские иски о возмещении причинённого ущерба оставлены судом для рассмотрения в порядке гражданского судопроизводства", - заключили в суде.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru