Россия призвала США создать совместную группу по кибербезопасности

Россия призвала США создать совместную группу по кибербезопасности

Россия призвала США создать совместную группу по кибербезопасности

Москва призвала Вашингтон рассмотреть предложение по формированию совместной группы по кибербезопасности, говорится в заявлении российского посольства в США.

«Призываем еще раз внимательно взглянуть на наше предложение по формированию российско-американской группы по кибербезопасности», — говорится в заявлении дипмиссии.

Владимир Путин по итогам своего участия в саммите "Группы двадцати" в Гамбурге заявил, что между Россией и США не должно быть ситуаций неопределенности в вопросах кибербезопасности, рабочая группа по этому вопросу, которая будет создана двумя странами, исключит в будущем какие-либо спекуляции, пишет ria.ru.

В среду министерство внутренней безопасности США предписало всем федеральным учреждениям прекратить использовать программы "Касперского", якобы из-за возможности доступа к ним российских властей.

Вопрос о создании совместной группы по кибербезопасности обсуждался между президентами двух стран Владимиром Путиным и Дональдом Трампом на полях саммита «Большой двадцатки» в Гамбурге.

Ранее Трамп подвергся резкой критике за предложение создать российско-американскую структуру. Кроме того, комитет сената по разведке одобрил законопроект, обязывающий американского главу государства получать разрешение конгресса на то, чтобы сотрудничать с Россией в области кибербезопасности.

Регулирование ИИ в России смягчили после критики бизнеса

Законопроект о регулировании искусственного интеллекта, подготовленный Минцифры, заметно скорректировали с учётом замечаний бизнеса. Требования к национальным и суверенным моделям стали более сбалансированными, изменились нормы по маркировке ИИ-контента, а часть спорных положений убрали из текста документа.

Обновлённый текст законопроекта оказался в распоряжении «Российской газеты». Как отметили источники издания, близкие к работе над документом, разработчики постарались максимально учесть замечания, высказанные бизнесом.

Ряд положений прежней версии документа участники рынка называли фактически невыполнимыми. Кроме того, по оценке более чем 150 экспертов, соблюдение ключевых требований могло привести к удорожанию ИИ-проектов до 40%.

«Видим в законопроекте потенциал стать полезным инструментом для развития и применения ИИ. Регулирующие органы открыты к диалогу с отраслью — это позволяет дорабатывать проект документа, выстраивая долгосрочные правила с учётом баланса интересов заинтересованных сторон. Рассчитываем, что при дальнейшей работе этот баланс будет сохранён», — прокомментировали результаты корректировки в пресс-службе Яндекса.

Прежде всего изменились требования к национальным и суверенным моделям ИИ. В первоначальной версии законопроекта речь шла о полной локализации. В обновлённой редакции достаточно, чтобы разработчик был российским юридическим лицом и самостоятельно определял и изменял существенные характеристики модели.

«Критерии для отечественных ИИ-моделей не должны становиться дополнительными ограничениями для разработчиков, особенно с учётом высокой международной конкуренции и наличия открытых моделей на рынке. Именно на это было направлено большинство замечаний бизнеса, которые учли в ходе работы над законопроектом», — прокомментировали корректировку в Ассоциации больших данных.

Для использования ИИ-модели в госструктурах больше не требуется её включение в реестр доверенных моделей. Это требование также вызывало опасения у участников рынка: они считали, что реестр может стать «бутылочным горлышком» и затормозить внедрение ИИ. Теперь сфера применения доверенных моделей ограничена только объектами критической информационной инфраструктуры.

Требование уведомлять пользователей об использовании ИИ-сервисов сохранили только для госструктур. На коммерческий сектор оно больше не распространяется.

Из текста также убрали норму, которая обязывала сервисы с аудиторией более 500 тыс. человек хранить информацию о пользователях в течение трёх лет. Кроме того, сняты ограничения на трансграничную передачу данных ИИ. Ранее многие участники рынка расценивали это требование как фактический запрет на использование зарубежных ИИ-моделей.

Сняты и ограничения на использование открытых данных для обучения нейросетей. В прежних редакциях соответствующие формулировки были недостаточно чёткими.

Наконец, изменились требования к маркировке контента. Она должна быть машиночитаемой, но делать её различимой для людей не обязательно.

«Международная практика двигается к созданию стандартов машиночитаемой маркировки такого контента, но до определения универсальных правил ещё достаточно далеко. Поэтому случаи установления машиночитаемой маркировки ИИ-контента будут дополнительно определены правительством», — отметил один из источников издания.

RSS: Новости на портале Anti-Malware.ru