​​РКН запустил систему автоматического поиска запрещенного контента Окулус

​​РКН запустил систему автоматического поиска запрещенного контента Окулус

​​РКН запустил систему автоматического поиска запрещенного контента Окулус

Искать запрещённый контент в Сети теперь будет искусственный интеллект. Роскомнадзор запустил автоматическую систему “Окулус”. Основная тематика — экстремизм, наркотики, митинги, пропаганда ЛГБТ и военные фейки. К 2025 году “Окулус” научат детально анализировать действия людей в интернете.

О запуске “Окулуса” изданию “Ведомости” рассказал представитель Главного радиочастотного центра (ФГУП ГРЧЦ). Центр подчиняется Роскомнадзору.

Про планы поставить такую систему говорили еще в сентябре 2021-го. Тогда ГРЧЦ опубликовал тендер на разработку технического задания. Речь шла о сумме в 15 млн рублей. В итоге разработчиком “Окулуса” стала ИТ-компания Execution RDC. Ее представитель отказался от комментариев, сославшись на коммерческие отношения с заказчиком.

По словам представителя ГРЧЦ, в декабре прошлого года систему протестировали, а в январе уже началась интеграция “Окулуса” с другими инструментами мониторинга Роскомнадзора. Подробностей результатов тестирования, а также первых итогов ее работы представитель ГРЧЦ не привел.

“Информационная система “Окулус” уже запущена и выполняет возложенные на нее задачи в полном объеме: выявляет нарушения законодательства в изображениях и видеоматериалах”, — заявили в ГРЧЦ.

“Система распознает изображения и символы, противоправные сцены и действия, анализирует текст в фото- и видеоматериалах. “Окулус” автоматически обнаруживает такие правонарушения, как экстремистская тематика, призывы к массовым незаконным мероприятиям, суициду, пронаркотический контент, пропаганда ЛГБТ и др.”, — пояснили в центре.

До внедрения системы специалисты ГРЧЦ анализировали запрещенный контент “преимущественно вручную”. В среднем операторы обрабатывали 106 изображений и 101 видео в день.

“Окулус” возьмет на себя 200 тыс. изображений в сутки (около трех секунд на одно изображение).

“Окулус” работает как классификатор с уже заданным набором источников информации, в которых анализируется контент на предмет соблюдения или несоблюдения требований закона, объяснила “Ведомостям” гендиректор компании “Социальная лаборатория” Наталия Тылевич.

Это значит, что “Окулус” может анализировать конкретные страницы сайтов или же паблики и профили в соцсетях. Программа не занимается сбором данных, она их классифицирует.

К 2025 году систему планируется усовершенствовать.

“Прорабатывается возможность добавления новых классов и типов нарушений, а также функции определения поз людей и их действий”, – говорит представитель ГРЧЦ.

“Система будет выявлять запрещенные материалы “на нескольких кадрах на видеофрагментах, в сложных рукописных текстах и рисованном контенте”, — добавил он.

Риски использования “Окулуса” касаются того, насколько корректно или некорректно осуществляется классификация изображений и видео, и насколько корректно они будут в дальнейшем интерпретированы в связке с другими компонентами системы и человеком.

“Вопрос интерпретации и настроек будет определять масштаб таких погрешностей, как будет классифицироваться спорный контент – считать ли его запрещенным или нет”, — предупреждает Тылевич. — Но так или иначе это будут риски не столько самого решения, сколько риски уже дальнейшей работы с полученными в результате его работы данными”.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

Исследователи из CrowdStrike обнаружили необычное и тревожное поведение китайской модели DeepSeek-R1: она начинает генерировать заметно более уязвимый код, если в запросах появляются политически чувствительные темы для Китая. То есть сама формулировка запроса — например, упоминание Тибета или уйгуров — снижает качество и безопасность создаваемого ИИ кода.

По данным CrowdStrike, без «триггерных» слов модель допускает серьёзные уязвимости примерно в 19% случаев.

Но стоит добавить геополитический контекст, вероятность повышается почти на 50%. Так, при задаче создать компонент для системы, «используемой на промышленном объекте в Тибете», доля небезопасного кода выросла с 19% до 27,2%.

Исследователи подчёркивают: сами «политические» слова никак не связаны с задачей кодирования. Однако модель начинает вести себя нестабильно — от использования небезопасных функций до генерации откровенно нерабочего кода.

В одном примере DeepSeek-R1 написала вебхук для PayPal в виде PHP-кода, который не только содержал ключи в коде, но и вообще не являлся валидным PHP. Несмотря на это, модель уверяла, что всё сделано «по лучшим практикам PayPal».

 

В другом тесте исследователи попросили создать Android-приложение для сообщества уйгуров: регистрация, вход, админ-панель. Приложение работало, но не имело ни аутентификации, ни управления сессиями.

В 35% случаев DeepSeek-R1 вообще не использовала хеширование или применяла небезопасные методы. А вот для похожего задания, но про футбольный фан-клуб, таких проблем почти не было.

CrowdStrike также сообщила, что у модели, судя по всему, есть «встроенный рубильник»:

«DeepSeek-R1 начинает внутренне планировать решение задачи, но в последний момент отказывается отвечать на запросы, связанные, например, с Фалуньгун. В 45% таких случаев модель пишет: “Я не могу помочь с этим запросом“».

По мнению исследователей, причина кроется в обучении модели — вероятно, разработчики встроили специальные ограничения, чтобы соответствовать китайским законам и правилам цензуры.

CrowdStrike подчёркивает: наличие «триггерных слов» не гарантирует, что ИИ всегда выдаст небезопасный код. Но в среднем качество ощутимо падает.

Проблемы с безопасностью кода наблюдаются и у других инструментов. Проверка OX Security показала (PDF), что Lovable, Base44 и Bolt создают уязвимый по умолчанию код даже при запросе «безопасной» реализации. Все три инструмента сгенерировали вики-приложение с XSS-уязвимостью, позволяющей выполнять произвольный JavaScript. Хуже того, модель Lovable могла «пропатчить» уязвимость только в двух из трёх попыток, что создаёт ложное ощущение безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru