Роскомнадзор готовится запустить ИИ-систему поиска запрещённого контента

Роскомнадзор готовится запустить ИИ-систему поиска запрещённого контента

Роскомнадзор готовится запустить ИИ-систему поиска запрещённого контента

Роскомнадзор в скором времени может запустить усовершенствованную систему поиска незаконного контента в Сети, в основу которой ляжет искусственный интеллект (ИИ). Система, получившая имя «Окулус», должна повысить эффективность обнаружения экстремистских и порнографических материалов в изображениях и видео.

Разработкой «Окулус» будет заниматься Главный радиочастотный центр (ГРЧЦ), который в настоящее время подведомственен РКН. Эксперты же опасаются, что введение систему в эксплуатацию может замедлить работу веб-ресурсов.

Согласно информации, которую сотрудники издания «КоммерсантЪ» нашли на портале госзакупок, «Окулус» планируют запустить в 2022 году. Стоимость опубликованного ГРЧЦ тендера на разработку технического задания составила 15 миллионов рублей.

Системе доверят задачу выявления следующего контента: пропаганда наркотиков, порнография, экстремистские материалы, призывы к самоубийству и массовым беспорядкам. Ранее этот поиск в изображениях и видеозаписях происходил вручную, а в следующем году этим уже будет заниматься «Окулус». Ожидается, что работы завершат до 17 декабря.

Аналитики считают, что контент в текстовом виде значительно уступает фото- и видеоматериалам по воздействию на сознание пользователей Сети. Поэтому «Окулус» будет решать проблему постинга противоправных изображений и видеозаписей, которые могут потенциально навредить подросткам.

Утечки из российских компаний через зарубежные ИИ-сервисы выросли в 30 раз

По итогам 2025 года объёмы данных, утёкших из российских компаний из-за использования сотрудниками общедоступных ИИ-сервисов — таких как ChatGPT и Google Gemini — выросли в 30 раз. Такие выводы сделаны на основе анализа сетевого трафика 150 российских организаций, являющихся клиентами ГК «Солар».

В выборку вошли заказчики из разных отраслей, включая ИТ, госсектор, телеком, финансы, ретейл, электронную коммерцию и промышленность.

«Сотрудники загружают в чат-боты фрагменты исходного кода, финансовые отчёты, юридические документы и клиентские базы, чтобы “упростить” рутинные задачи — проанализировать данные, составить саммари или написать код. Таким образом, они неосознанно становятся одной из причин утечек информации», — говорится в отчёте по итогам исследования.

При этом, как отмечают аналитики, у 60% организаций до сих пор отсутствуют формализованные политики, регулирующие использование ИИ-ассистентов. Это существенно повышает риски для бизнеса, в том числе на критическом уровне.

Согласно сентябрьскому исследованию Яндекса и Университета ИТМО, утечки данных через зарубежные ИИ-сервисы стали одним из ключевых факторов перехода компаний на российские аналоги. Тогда о планах полностью отказаться от иностранных решений заявляла примерно треть опрошенных организаций.

RSS: Новости на портале Anti-Malware.ru