Лаборатория Касперского сэкономила своим клиентам $53 млн

Лаборатория Касперского сэкономила своим клиентам $53 млн

Решения «Лаборатории Касперского» защитили в 2015 году от программ-шифровальщиков данные почти 444 тысяч домашних и корпоративных пользователей по всему миру, тем самым лишив киберпреступников возможности нечестным образом заработать около 53 млн долларов США.

Подсчет сбереженной «Лабораторией Касперского» денежной суммы производился исходя из тех фактов, что в среднем киберпреступники требуют 300 долларов в качестве выкупа за расшифровку файлов, и, по разным источникам, по крайней мере 40% жертв готовы заплатить. Таким образом, если бы каждый из атакованных пользователей заплатил эту сумму, мошенники получили бы более 133 миллионов долларов. Но поскольку на условия злоумышленников соглашаются менее половины пострадавших, «Лаборатория Касперского» уберегла пользователей от передачи в руки мошенников как минимум 53 миллионов долларов.

Ущерб от программ-шифровальщиков может быть гораздо серьезнее, ведь расценки, устанавливаемые киберпреступниками за расшифровку данных, колеблются от 30 до нескольких тысяч долларов. Сумма выкупа зависит от объема заблокированной информации, вида зловреда и того, кто является жертвой — частный или корпоративный пользователь.

«Программы-шифровальщики стали излюбленным инструментом злоумышленников, поскольку позволяют легко заработать деньги и при этом оставаться в тени. В большинстве случаев киберпреступники требуют выкуп в криптовалюте, чтобы выйти на их след было невозможно. Мы настоятельно рекомендуем жертвам не платить, ведь возвращение файлов это не гарантирует, зато способствует росту числа таких атак. Вместо этого мы советуем пользователям встречать мошенников во всеоружии: регулярно создавать копии ценных документов и использовать надежное защитное решение, которое позволит предотвратить проникновение таких зловредов», — советует Вячеслав Закоржевский, руководитель отдела антивирусных исследований «Лаборатории Касперского».

Решения «Лаборатории Касперского» защищают файлы даже от неизвестного и сложного вредоносного ПО, блокируя попытки большинства программ-шифровальщиков проникнуть в устройство. Если зловреду все-таки удается получить доступ к системе, в дело вступает специальная технология, которая позволяет создать защищенные от изменений копии файлов и использовать их для автоматического восстановления данных после удаления вредоносного ПО. Эта технология является частью компонента «Мониторинг активности», входящего в состав всех продуктов «Лаборатории Касперского» для ОС Windows. Эксперты рекомендуют домашним и корпоративным пользователям не отключать этот компонент, чтобы обеспечить максимальный уровень защиты информации.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru