Kaspersky для Linux стал доступен частным пользователям в России

Kaspersky для Linux стал доступен частным пользователям в России

Kaspersky для Linux стал доступен частным пользователям в России

В портфолио «Лаборатории Касперского» появился новый продукт — Kaspersky для Linux, предназначенный для домашних пользователей. Программа обеспечивает защиту конфиденциальных и платёжных данных от киберугроз.

Компания выпустила этот продукт на фоне роста интереса к Linux в России. По её данным, количество обнаруженных вредоносных программ для этой операционной системы увеличилось более чем в 20 раз за период с 2019 по 2024 годы.

Среди наиболее распространённых угроз — программы-вымогатели, майнеры и вредоносный софт, внедряемый в исходный код популярного программного обеспечения.

Основные функциональные возможности Kaspersky для Linux включают:

  • сканирование системы, устройств и отдельных файлов для выявления вредоносных программ;
  • проверку съёмных носителей (USB-накопителей, жёстких дисков) при их подключении;
  • обнаружение вредоносных программ на основе анализа поведения;
  • проверку веб-ресурсов и загружаемых файлов на наличие вредоносного кода;
  • уведомления о попытках перехода на фишинговые сайты.

Екатерина Москалёва, руководитель группы закупок «Мобильные системы» компании «Ситилинк», отмечает:

«Интерес к устройствам на базе Linux продолжает расти. В 2024 году спрос на ноутбуки с этой операционной системой в Ситилинке увеличился на 113% по количеству заказов по сравнению с 2023 годом. Это связано с её открытым кодом и удобством использования. Доля ноутбуков с Linux в ассортименте компании выросла с 1,6% до 3,8% в 2024 году, а в январе 2025 года достигла 4,9%. Ожидается, что тенденция сохранится».

Антон Иванов, технический директор «Лаборатории Касперского», добавляет:

«Популярность Linux в России выросла на фоне ухода зарубежных компаний и курса на импортозамещение. Эту операционную систему выбирают не только технические специалисты, но и обычные пользователи. Однако важно учитывать вопросы безопасности: распространено мнение, что для Linux практически нет угроз, но это не так. Опыт защиты корпоративных систем с Linux лег в основу нового решения для домашних пользователей. Программа предназначена для противодействия вредоносным программам и онлайн-мошенничеству, помогая повысить безопасность пользовательских устройств».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru