Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

В ходе дискуссии на Форуме ООН по управлению интернетом (IGF) «Лаборатория Касперского» представила этические принципы, которых, по ее мнению, нужно придерживаться при разработке и использовании систем машинного обучения.

Одна из ключевых тем IGF в этом году — искусственный интеллект и развивающиеся технологии, и Kaspersky, следуя взятому шесть лет назад курсу на информационную открытость, решила поделиться с коллегами своими наработками, чтобы придать импульс многостороннему диалогу с целью выработки единых практик использования таких технологий в кибербезопасности.

Машинное обучение, по словам экспертов, играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. В сочетании с человеческим опытом такие помощники позволяют также обнаруживать новые, ранее неизвестные угрозы и противодействовать им.

ИБ-компания использует ML-алгоритмы в своих решениях около 20 лет, придерживаясь следующих этических принципов (PDF):

  • прозрачность (информирование клиентов об использовании технологий машинного обучения в своих продуктах и услугах);
  • безопасность (аудит с учетом специфики, минимизация зависимости от сторонних наборов данных в процессе обучения решений, фокус на облачные технологии ML с необходимыми мерами защиты и т. п.);
  • человеческий контроль (обязательные проверки при анализе сложных угроз);
  • конфиденциальность (технические и оргмеры для защиты данных пользователей и систем);
  • приверженность целям кибербезопасности (концентрация на защитных технологиях);
  • открытость к диалогу (обмен опытом по этичному использованию ML с заинтересованными сторонами, сотрудничество с целью решения проблем и стимулирования инноваций).

«Машинное обучение может быть очень полезным для индустрии кибербезопасности, ещё больше повысить киберустойчивость общества, — комментирует Антон Иванов, директор Kaspersky по исследованиям и разработке. — Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несёт определённые риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки чётких рекомендаций, как сделать разработку таких решений этичной».

Правительство ужесточило требования к ПАК для генеративного ИИ

Правительство утвердило новые требования к программно-аппаратным комплексам генеративного искусственного интеллекта для включения их в льготный реестр. Согласно документу, разработчики таких решений должны располагать центром обработки данных мощностью не менее 10 МВт, а также системой хранения данных совокупным объёмом не менее 1 эксабайта.

Документ оказался в распоряжении «Коммерсанта». В нём также зафиксированы требования к вычислительным ресурсам и сетевой инфраструктуре.

В частности, комплексы должны использовать процессоры с матричными умножителями либо их аналоги с производительностью не ниже 8,75 PFLOP FP4, а также быть оснащены сетевыми адаптерами пропускной способностью от 400 Гбит/с с поддержкой технологии удалённого доступа к памяти (RDMA).

Как пояснили изданию в аппарате первого вице-премьера Дмитрия Григоренко, основной целью документа стало формирование самой категории программно-аппаратных комплексов для генеративного ИИ. При этом, по словам представителей правительства, задача «отсечь» часть участников рынка изначально не ставилась.

«Эксабайтное хранилище и сетевые подключения на 400 Гбит/с — это уровень крупных технологических компаний. Из-за новых требований рынок столкнётся с ростом затрат на инфраструктуру на 40–70%», — прокомментировал нововведения основатель WMT AI Игорь Никитин.

По оценке независимого эксперта Алексея Лерона, такие требования приведут к концентрации рынка в руках ограниченного числа игроков. В результате это может вызвать рост цен и сокращение предложения для заказчиков в сегменте B2B.

Источник «Коммерсанта» на рынке также отмечает, что наличие собственных вычислительных мощностей само по себе не гарантирует качество конечного продукта. По его словам, ключевую роль играет программное обеспечение, а требование о собственном ЦОД фактически превращается в дополнительный барьер для разработчиков.

Многие эксперты, опрошенные изданием, сходятся во мнении, что новые правила приведут к вытеснению нишевых игроков с рынка. В итоге в реестре могут остаться лишь 2–3 компании, способные инвестировать в строительство мощных ЦОД. Кроме того, документ усложнит создание альянсов между разработчиками оборудования и ПО и существенно сократит число новых стартапов в сфере генеративного ИИ.

RSS: Новости на портале Anti-Malware.ru