​​РКН запустил систему автоматического поиска запрещенного контента Окулус

​​РКН запустил систему автоматического поиска запрещенного контента Окулус

​​РКН запустил систему автоматического поиска запрещенного контента Окулус

Искать запрещённый контент в Сети теперь будет искусственный интеллект. Роскомнадзор запустил автоматическую систему “Окулус”. Основная тематика — экстремизм, наркотики, митинги, пропаганда ЛГБТ и военные фейки. К 2025 году “Окулус” научат детально анализировать действия людей в интернете.

О запуске “Окулуса” изданию “Ведомости” рассказал представитель Главного радиочастотного центра (ФГУП ГРЧЦ). Центр подчиняется Роскомнадзору.

Про планы поставить такую систему говорили еще в сентябре 2021-го. Тогда ГРЧЦ опубликовал тендер на разработку технического задания. Речь шла о сумме в 15 млн рублей. В итоге разработчиком “Окулуса” стала ИТ-компания Execution RDC. Ее представитель отказался от комментариев, сославшись на коммерческие отношения с заказчиком.

По словам представителя ГРЧЦ, в декабре прошлого года систему протестировали, а в январе уже началась интеграция “Окулуса” с другими инструментами мониторинга Роскомнадзора. Подробностей результатов тестирования, а также первых итогов ее работы представитель ГРЧЦ не привел.

“Информационная система “Окулус” уже запущена и выполняет возложенные на нее задачи в полном объеме: выявляет нарушения законодательства в изображениях и видеоматериалах”, — заявили в ГРЧЦ.

“Система распознает изображения и символы, противоправные сцены и действия, анализирует текст в фото- и видеоматериалах. “Окулус” автоматически обнаруживает такие правонарушения, как экстремистская тематика, призывы к массовым незаконным мероприятиям, суициду, пронаркотический контент, пропаганда ЛГБТ и др.”, — пояснили в центре.

До внедрения системы специалисты ГРЧЦ анализировали запрещенный контент “преимущественно вручную”. В среднем операторы обрабатывали 106 изображений и 101 видео в день.

“Окулус” возьмет на себя 200 тыс. изображений в сутки (около трех секунд на одно изображение).

“Окулус” работает как классификатор с уже заданным набором источников информации, в которых анализируется контент на предмет соблюдения или несоблюдения требований закона, объяснила “Ведомостям” гендиректор компании “Социальная лаборатория” Наталия Тылевич.

Это значит, что “Окулус” может анализировать конкретные страницы сайтов или же паблики и профили в соцсетях. Программа не занимается сбором данных, она их классифицирует.

К 2025 году систему планируется усовершенствовать.

“Прорабатывается возможность добавления новых классов и типов нарушений, а также функции определения поз людей и их действий”, – говорит представитель ГРЧЦ.

“Система будет выявлять запрещенные материалы “на нескольких кадрах на видеофрагментах, в сложных рукописных текстах и рисованном контенте”, — добавил он.

Риски использования “Окулуса” касаются того, насколько корректно или некорректно осуществляется классификация изображений и видео, и насколько корректно они будут в дальнейшем интерпретированы в связке с другими компонентами системы и человеком.

“Вопрос интерпретации и настроек будет определять масштаб таких погрешностей, как будет классифицироваться спорный контент – считать ли его запрещенным или нет”, — предупреждает Тылевич. — Но так или иначе это будут риски не столько самого решения, сколько риски уже дальнейшей работы с полученными в результате его работы данными”.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Фишинг-сервис Darcula получил ИИ-апгрейд

Исследователи из Netcraft обнаружили, что теневой сервис Darcula, облегчающий проведение фишинговых атак на владельцев Android-устройств и iPhone, теперь также предлагает возможность использования ИИ.

За год стараниями экспертов было закрыто более 25 тыс. сайтов-ловушек, заблокировано около 31 тыс. IP-адресов и выявлено свыше 90 тыс. фишинговых доменов, ассоциированных с Darcula. Реализация поддержки ИИ обострила противостояние и требует адекватных ответных мер.

Возможность применения ИИ снижает планку для неискушенных преступников и позволяет создавать уникальные исходные коды. В настоящее время криминальный PhaaS (Phishing-as-a-Service, «фишинг как услуга») предлагает подписчикам следующие опции:

  • генеративный ИИ для создания фишинговых форм и автоперевода на разные языки;
  • клонирование любых страниц по вводу URL оригинала;
  • GUI-интерфейс для быстрого запуска фишинговых кампаний;
  • параллельная работа с различными брендами и языками;
  • обход сигнатурного анализа за счет уникальности фишинг-паков.

Ранее пользователи Darcula довольствовались набором из 200+ фишинговых шаблонов и на их основе могли создавать фальшивки, нацеленные на организации из 100 стран. Теперь злоумышленникам предоставлена возможность придумывать собственные варианты, притом безо всяких ограничений.

«Подобная кастомизация позволяет проводить атаки на нишевые и региональные бренды, которые ранее выпадали из поля зрения фиш-паков, — подчеркивают исследователи. — А возможность создания фишинговых страниц без статичного набора шаблонов снижает эффективность традиционных, сигнатурных методов обнаружения. Чтобы быть на шаг впереди, организациям нужны более динамичные, основанные на поведении средства анализа»».

 

Напомним, владеющие китайским языком создатели Darcula запустили еще один сервис для фишеров — Lucid, который уже используется для проведения атак — с результативностью 5% вместо обычных 2%. Подписчикам тоже предоставляется возможность рассылок через Android RCS и iMessage, так как мошеннические СМС обычно отсеиваются на спам-фильтрах.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru