Роскомнадзор заказал сервис по ловле дипфейков

Роскомнадзор заказал сервис по ловле дипфейков

Роскомнадзор заказал сервис по ловле дипфейков

Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи. В ведомстве допускают, что систему могут использовать для выявления “дипфейков”. Решение пока только на английском языке.

О сервисе Expert на основе искусственного интеллекта сегодня пишет “Ъ”. Система позволит проверять видеозаписи выступлений на предмет лжи и манипуляций.

По словам одного из собеседников “Ъ”, прототип был представлен Роскомнадзору на заседании экспертного совета ГРЧЦ по ИИ в июле:

“Присутствовал глава Роскомнадзора Андрей Липов, которого решение заинтересовало. Он попросил как можно скорее передать его ведомству на тестирование”.

Сервис позволяет анализировать видеозаписи на предмет лжи и представляет интерес для оперативного выявления “дипфейков” (deepfake), уточнил глава Научно-технического центра ФГУП ГРЧЦ Александр Федотов:

“Если ИТМО сможет представить устойчиво работающую технологию в виде готового продукта, ГРЧЦ рассмотрит возможность ее применения”.

Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивость, сравнивает слова с научными статьями и высказываниями других специалистов.

Система заточена пока только под английский язык. Разработчики объясняют это популярностью именно английского, а эксперты “Ъ” — тем, что 90% российских разработок, связанных с ИИ, построены на основе скачанных открытых зарубежных библиотек вместе с дата-сетами для их обучения.

“Поэтому разработка ИТМО адаптирована для английского языка. Для переобучения под русский потребуется большой массив данных и затраты”, — говорит топ-менеджер профильной ИТ-компании.

Доработка для получения текста из речи на русском языке стоит в ближайших планах, заверяют в ИТМО. Там же добавили, что система уже прошла предварительное тестирование в преддверии выборов в Сенат США.

“Мы проанализировали опубликованные на YouTube интервью шести кандидатов на предмет противоречивости, агрессии и уверенности в себе”, — говорит руководитель научно-исследовательской лаборатории “Когнитивная невербалика” НЦКР ИТМО Олег Басов.

По его словам, в заявлениях трех кандидатов система обнаружила скрытую агрессию, а одного из них удалось уличить во лжи. Анализировал ли эксперт речь российских политиков на английском языке, не уточняется.

Подробнее про дипфейки можно прочитать в материале “Технологии Deepfake как угроза информационной безопасности”.

Путин поручил запустить пилот по обучению ИИ и информационной безопасности

Владимир Путин поручил запустить в Московской области пилотный проект по обучению технологиям искусственного интеллекта и информационной безопасности. Соответствующие поручения опубликованы на сайте Кремля по итогам заседания Госсовета.

Проект правительство должно реализовать совместно с властями региона. Доклад о его запуске президент ожидает до 1 июля — его представят премьер-министр Михаил Мишустин и губернатор Подмосковья Андрей Воробьёв.

Кроме того, к 15 июля поручено включить компетенции в сфере ИИ в образовательные и профессиональные стандарты. Речь идёт о том, чтобы навыки работы с искусственным интеллектом стали частью формальной системы подготовки специалистов.

Отдельно поставлена задача организовать программы повышения квалификации для преподавателей и учителей по направлениям ИТ и ИИ — с участием технологических компаний.

Тема развития искусственного интеллекта ранее уже звучала на федеральном уровне. В ноябре, выступая на конференции AI Journey-2025, президент заявил о необходимости создать штаб по управлению отраслью ИИ и поручил правительству совместно с регионами сформировать национальный план внедрения генеративного ИИ.

Тогда Владимир Путин подчеркнул, что зависимость от иностранных нейросетей недопустима, поскольку речь идёт о технологическом суверенитете страны. Новые поручения, судя по всему, становятся практическим шагом в этом направлении.

Анастасия Федорова, руководитель образовательных программ Positive Education, поделилась с Anti-Malware.ru своим комментарием:

«Поручение о запуске пилотного проекта по обучению ИИ и кибербезопасности —  сигнал о приоритете повышения безопасности в цифровой среде. Это поможет интегрировать ключевые компетенции в образование и сформировать культуру кибербезопасности на всех уровнях.

Внимание к вопросу кибербезопасности на самом высшем уровне говорит о том, что киберугрозы воспринимаются как серьезная проблема, решение которой — межотраслевая задача.

Аналитики Positive Technologies в 2026 году прогнозируют рост успешных атак на компании и частных лиц на 30–35% по сравнению с 2025 годом. Важно понимать, что сегодня личный и корпоративный кибербез неразделимы — часть атак на бизнес начинается с компрометации устройств или аккаунтов сотрудников в личном пространстве. Поэтому обучение должно фокусироваться на реальных повседневных сценариях, где ошибка одного человека может запустить цепную реакцию до уровня компании. В Positive Education мы активно развиваем именно такие корпоративные программы».

RSS: Новости на портале Anti-Malware.ru