Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

Kaspersky сформулировала принципы этичного использования ИИ в кибербезе

В ходе дискуссии на Форуме ООН по управлению интернетом (IGF) «Лаборатория Касперского» представила этические принципы, которых, по ее мнению, нужно придерживаться при разработке и использовании систем машинного обучения.

Одна из ключевых тем IGF в этом году — искусственный интеллект и развивающиеся технологии, и Kaspersky, следуя взятому шесть лет назад курсу на информационную открытость, решила поделиться с коллегами своими наработками, чтобы придать импульс многостороннему диалогу с целью выработки единых практик использования таких технологий в кибербезопасности.

Машинное обучение, по словам экспертов, играет важную роль в автоматизации процесса обнаружения угроз и выявления аномалий, а также повышает точность распознавания вредоносных программ. В сочетании с человеческим опытом такие помощники позволяют также обнаруживать новые, ранее неизвестные угрозы и противодействовать им.

ИБ-компания использует ML-алгоритмы в своих решениях около 20 лет, придерживаясь следующих этических принципов (PDF):

  • прозрачность (информирование клиентов об использовании технологий машинного обучения в своих продуктах и услугах);
  • безопасность (аудит с учетом специфики, минимизация зависимости от сторонних наборов данных в процессе обучения решений, фокус на облачные технологии ML с необходимыми мерами защиты и т. п.);
  • человеческий контроль (обязательные проверки при анализе сложных угроз);
  • конфиденциальность (технические и оргмеры для защиты данных пользователей и систем);
  • приверженность целям кибербезопасности (концентрация на защитных технологиях);
  • открытость к диалогу (обмен опытом по этичному использованию ML с заинтересованными сторонами, сотрудничество с целью решения проблем и стимулирования инноваций).

«Машинное обучение может быть очень полезным для индустрии кибербезопасности, ещё больше повысить киберустойчивость общества, — комментирует Антон Иванов, директор Kaspersky по исследованиям и разработке. — Однако, как и любая технология, находящаяся на ранней стадии своего развития, она несёт определённые риски. Мы рассказываем о своих этических принципах в области работы с технологиями машинного обучения и призываем к открытому диалогу в отрасли для выработки чётких рекомендаций, как сделать разработку таких решений этичной».

Дуров связал критику Telegram с попытками усилить цензуру и контроль в ЕС

Павел Дуров снова жёстко прошёлся по ЕС, медиа и исследователям, которые критикуют Telegram. В своём канале основатель мессенджера заявил, что европейские структуры якобы пытаются оправдать усиление слежки и цензуры, а в качестве одного из поводов используют свежие претензии к платформе.

Поводом, судя по всему, стал новый доклад организации AI Forensics и последовавшие публикации в европейских СМИ.

Как писал WIRED, исследователи AI Forensics проанализировали почти 2,8 млн сообщений в 16 испанских и итальянских телеграм-сообществах и пришли к выводу, что Telegram остаётся важной инфраструктурой для распространения незаконного контента, включая изображения интимного характера, доксинг и сервисы слежки.

Именно на это Дуров и отреагировал. В своём посте он обвинил AI Forensics, которую назвал связанным с Еврокомиссией подрядчиком, а также ряд европейских медиа в том, что они продвигают удобный для властей нарратив: будто Telegram — это проблема уже потому, что в частных группах люди обсуждают контент с других соцсетей.

По сути, Дуров представил происходящее как попытку общественного давления в пользу более жёсткого регулирования платформ. Отдельно он связал эту историю с двумя болезненными для него темами — Chat Control и DSA.

Под Chat Control обычно понимают обсуждаемые в ЕС меры, которые критики считают угрозой для конфиденциальной переписки, а DSA — это европейский закон о цифровых сервисах. Весной 2026 года Европарламент действительно поддержал более ограниченный подход к сканированию сообщений, но более широкая дискуссия вокруг постоянного регулирования всё ещё продолжается.

Сам Telegram занял ожидаемо оборонительную позицию. Представитель компании заявил, что сервис ежедневно удаляет «миллионы» единиц контента с помощью собственных ИИ-инструментов, запрещает публикацию сексуализированного контента, доксинга и продвижения незаконных услуг, а также соблюдает требования законодательства ЕС.

RSS: Новости на портале Anti-Malware.ru