Минцифры опровергло утечку биометрических данных из НИИ Восход

Минцифры опровергло утечку биометрических данных из НИИ Восход

Минцифры опровергло утечку биометрических данных из НИИ Восход

Минцифры и ФСБ начали совместную проверку сообщений об утечке биометрических данных граждан России, Казахстана и Белоруссии. Сам “слив” из НИИ “Восход” в Минцифры отрицают, ссылаясь на отсутствие базы в Сети и надежность хранения ключа расшифровки в Гознаке.

О возможной утечке биометрии из ФГАУ НИИ “Восход” накануне написал телеграм-канал “Раньше всех. Ну почти”. 

По предварительной версии, в Сеть попала база данных системы за весь период её существования. Сообщалось, что сведения “слил” бывший сотрудник НИИ, сейчас проверкой занимается Московская прокуратура.

Источник РБК на ИТ-рынке добавлял, что у НИИ “Восход” могли утечь “десятки процентов базы загранпаспортов, которая велась с 2006 года”.

К вечеру 6 марта Минцифры распространило заявление с опровержением факта утечки из НИИ “Восход”.

"Данные в Сеть не выложены”, — отметили в ведомстве.

При этом там упомянули “аномальную активность”, которая “была зафиксирована”, в том числе — из внутренней сети предприятия”.

“Данные хранятся в зашифрованном виде, ключ расшифровки хранится в Гознаке. Это в любом случае не позволит незаконно получить доступ к биометрическим данным", — убеждены в Минцифры.

Сейчас служебной проверкой вместе с цифровым ведомством занимается ФСБ.

ФГАУ НИИ “Восход” является одним из головных институтов в сфере системной интеграции по разработке и внедрению крупных федеральных и отраслевых (ведомственных) автоматизированных информационных систем, включая ИС специального назначения, говорится на сайте Минцифры. Среди приоритетных направлений деятельности “Восхода” упоминаются электронные услуги для граждан и бизнеса, координация информатизации госорганов и цифровая трансформация в сфере выборов.

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru