В Госдуме создана межфракционная группа по регулированию ИИ

В Госдуме создана межфракционная группа по регулированию ИИ

В Госдуме создана межфракционная группа по регулированию ИИ

В Госдуме создана межфракционная рабочая группа по регулированию искусственного интеллекта (ИИ), в которую вошли представители всех думских фракций. Возглавил группу вице-спикер Александр Бабаков.

Материалы к организационному собранию группы оказались в распоряжении «Ведомостей». Источники издания в Госдуме подтвердили их подлинность.

В беседе с изданием Александр Бабаков отметил, что ИИ — это не та сфера, которая может развиваться исключительно по рыночным законам и ориентироваться только на прибыль. Он подчеркнул и потенциальные угрозы, в первую очередь — этического характера. По словам вице-спикера, особое значение имеет также увязка развития ИИ с развитием энергетики.

Депутат от фракции «Новые люди» Антон Ткачев рассказал «Ведомостям», что группа была создана по поручению председателя Госдумы Вячеслава Володина. Он назвал развитие ИИ комплексной задачей, затрагивающей широкий круг вопросов — от энергетики и международного сотрудничества до безопасности и оборота данных.

Депутат от ЛДПР Андрей Синцов обратил внимание на то, что в российском законодательстве до сих пор отсутствует чёткое определение ИИ. По его словам, задача группы — изучить потребности государства и бизнеса, включая малый, и на их основе сформулировать принципы регулирования.

Среди задач рабочей группы также — выработка предложений по отраслевому применению ИИ, в том числе для нужд обороны и безопасности, а также противодействие использованию ИИ в преступных целях. Группа депутатов уже внесла в Госдуму законопроект, предусматривающий признание использования ИИ отягчающим обстоятельством.

Кроме того, в Госдуме намерены создать законодательные условия для применения ИИ в стратегическом планировании социально-экономического развития страны.

Каждый десятый россиянин использует ИИ для создания рабочих паролей

Как выяснили в «Лаборатория Касперского» и hh.ru, часть россиян уже доверяет нейросетям даже такую важную задачу, как создание паролей для рабочих аккаунтов. По данным совместного опроса, каждый десятый использует ИИ для генерации паролей к корпоративным сервисам.

Ещё 6% применяют нейросети для управления паролями или их хранения. Это уже выглядит рискованнее: если пользователь вводит в ИИ-сервис лишние данные, они потенциально могут оказаться вне контроля компании.

В целом большинство пользователей пока относятся к такой практике осторожно. Но есть и те, кто готов доверять ИИ даже в вопросах с высокой ценой ошибки.

Так, 11% опрошенных заявили, что могли бы поручить нейросети создание паролей для рабочих ресурсов с конфиденциальной информацией. Столько же признались, что в некоторых случаях доверяют ИИ в генерации паролей больше, чем себе.

Эксперты напоминают: сама идея создать сложную комбинацию с помощью технологии не плоха. Проблема начинается, когда человек в запросе указывает название компании, конкретный сервис или другие детали, которые лучше не светить во внешней системе. Кроме того, предложенный нейросетью пароль не стоит использовать в исходном виде.

В «Лаборатории Касперского» советуют безопаснее подходить к таким сценариям: не передавать ИИ конфиденциальные данные, просить несколько вариантов и затем собирать собственную комбинацию.

Для компаний более надёжным вариантом остаются корпоративные менеджеры паролей, где можно централизованно управлять учётными данными и контролировать правила безопасности.

RSS: Новости на портале Anti-Malware.ru