Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

В ходе дискуссии на Форуме ООН по управлению интернетом (IGF) «Лаборатория Касперского» представила этические принципы, которых, по ее мнению, нужно придерживаться при разработке и использовании систем машинного обучения.

Одна из ключевых тем IGF в этом году — искусственный интеллект и развивающиеся технологии, и Kaspersky, следуя взятому шесть лет назад курсу на информационную открытость, решила поделиться с коллегами своими наработками, чтобы придать импульс многостороннему диалогу с целью выработки единых практик использования таких технологий в кибербезопасности.

Машинное обучение, по словам экспертов, играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. В сочетании с человеческим опытом такие помощники позволяют также обнаруживать новые, ранее неизвестные угрозы и противодействовать им.

ИБ-компания использует ML-алгоритмы в своих решениях около 20 лет, придерживаясь следующих этических принципов (PDF):

  • прозрачность (информирование клиентов об использовании технологий машинного обучения в своих продуктах и услугах);
  • безопасность (аудит с учетом специфики, минимизация зависимости от сторонних наборов данных в процессе обучения решений, фокус на облачные технологии ML с необходимыми мерами защиты и т. п.);
  • человеческий контроль (обязательные проверки при анализе сложных угроз);
  • конфиденциальность (технические и оргмеры для защиты данных пользователей и систем);
  • приверженность целям кибербезопасности (концентрация на защитных технологиях);
  • открытость к диалогу (обмен опытом по этичному использованию ML с заинтересованными сторонами, сотрудничество с целью решения проблем и стимулирования инноваций).

«Машинное обучение может быть очень полезным для индустрии кибербезопасности, ещё больше повысить киберустойчивость общества, — комментирует Антон Иванов, директор Kaspersky по исследованиям и разработке. — Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несёт определённые риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки чётких рекомендаций, как сделать разработку таких решений этичной».

Cloud.ru запустила сервис для защиты Kubernetes-кластеров

На конференции GoCloud 2026 компания Cloud.ru объявила о запуске Evolution Container Security — собственного сервиса для защиты контейнерных сред Kubernetes. Инструмент рассчитан на специалистов по ИБ, DevOps-инженеров и разработчиков, которые работают с Kubernetes-кластерами.

Сейчас сервис уже открыт в режиме публичного тестирования.

По описанию компании, Evolution Container Security умеет сканировать контейнеры, хосты и конфигурации на уязвимости, в том числе с учётом базы БДУ ФСТЭК России.

Кроме того, он позволяет проверять настройки при развёртывании контейнеров и подов, а также формировать и настраивать политики безопасности.

Отдельно в Cloud.ru делают ставку на встроенного ИИ-агента. Предполагается, что он будет помогать генерировать политики безопасности под конкретную инфраструктуру заказчика, чтобы сократить объём ручной настройки.

Новый сервис дополняет уже существующий набор Kubernetes-инструментов, доступных через маркетплейс Cloud.ru. Речь идёт, в частности, о Trivy Operator, Istio, Connaisseur и Gatekeeper.

Интерес к таким решениям сейчас понятен: защита контейнерных сред становится всё более важной темой. По данным, на которые ссылается компания, в 2026 году многие российские организации собираются усиливать безопасность Kubernetes-сред, а значительная часть уже работающих кластеров до сих пор содержит роли с избыточными привилегиями. Это делает специализированные инструменты контроля всё более востребованными.

RSS: Новости на портале Anti-Malware.ru