​​РКН запустил систему автоматического поиска запрещенного контента Окулус

​​РКН запустил систему автоматического поиска запрещенного контента Окулус

​​РКН запустил систему автоматического поиска запрещенного контента Окулус

Искать запрещённый контент в Сети теперь будет искусственный интеллект. Роскомнадзор запустил автоматическую систему “Окулус”. Основная тематика — экстремизм, наркотики, митинги, пропаганда ЛГБТ и военные фейки. К 2025 году “Окулус” научат детально анализировать действия людей в интернете.

О запуске “Окулуса” изданию “Ведомости” рассказал представитель Главного радиочастотного центра (ФГУП ГРЧЦ). Центр подчиняется Роскомнадзору.

Про планы поставить такую систему говорили еще в сентябре 2021-го. Тогда ГРЧЦ опубликовал тендер на разработку технического задания. Речь шла о сумме в 15 млн рублей. В итоге разработчиком “Окулуса” стала ИТ-компания Execution RDC. Ее представитель отказался от комментариев, сославшись на коммерческие отношения с заказчиком.

По словам представителя ГРЧЦ, в декабре прошлого года систему протестировали, а в январе уже началась интеграция “Окулуса” с другими инструментами мониторинга Роскомнадзора. Подробностей результатов тестирования, а также первых итогов ее работы представитель ГРЧЦ не привел.

“Информационная система “Окулус” уже запущена и выполняет возложенные на нее задачи в полном объеме: выявляет нарушения законодательства в изображениях и видеоматериалах”, — заявили в ГРЧЦ.

“Система распознает изображения и символы, противоправные сцены и действия, анализирует текст в фото- и видеоматериалах. “Окулус” автоматически обнаруживает такие правонарушения, как экстремистская тематика, призывы к массовым незаконным мероприятиям, суициду, пронаркотический контент, пропаганда ЛГБТ и др.”, — пояснили в центре.

До внедрения системы специалисты ГРЧЦ анализировали запрещенный контент “преимущественно вручную”. В среднем операторы обрабатывали 106 изображений и 101 видео в день.

“Окулус” возьмет на себя 200 тыс. изображений в сутки (около трех секунд на одно изображение).

“Окулус” работает как классификатор с уже заданным набором источников информации, в которых анализируется контент на предмет соблюдения или несоблюдения требований закона, объяснила “Ведомостям” гендиректор компании “Социальная лаборатория” Наталия Тылевич.

Это значит, что “Окулус” может анализировать конкретные страницы сайтов или же паблики и профили в соцсетях. Программа не занимается сбором данных, она их классифицирует.

К 2025 году систему планируется усовершенствовать.

“Прорабатывается возможность добавления новых классов и типов нарушений, а также функции определения поз людей и их действий”, – говорит представитель ГРЧЦ.

“Система будет выявлять запрещенные материалы “на нескольких кадрах на видеофрагментах, в сложных рукописных текстах и рисованном контенте”, — добавил он.

Риски использования “Окулуса” касаются того, насколько корректно или некорректно осуществляется классификация изображений и видео, и насколько корректно они будут в дальнейшем интерпретированы в связке с другими компонентами системы и человеком.

“Вопрос интерпретации и настроек будет определять масштаб таких погрешностей, как будет классифицироваться спорный контент – считать ли его запрещенным или нет”, — предупреждает Тылевич. — Но так или иначе это будут риски не столько самого решения, сколько риски уже дальнейшей работы с полученными в результате его работы данными”.

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru