Предложены меры борьбы с киберпреступностью и создание безопасной сети

Предложены меры борьбы с киберпреступностью и создание безопасной сети

Бывший советник по безопасности Белого Дома считает, что для эффективной борьбы с киберпреступностью, на данный момент, необходимо принимать соответствующие меры к странам, которые являются «благодатным местом» для киберпреступников. Помимо этого, он считает, что для создания безопасной сети необходимо провести переоценку фундаментальной архитектуры Интернет.

Согласно источнику на конференции RSA, недавно прошедшей в Лондоне, со своим докладом выступил Ричард Кларк, который некогда являлся специальным советником по вопросам кибербезопасности при президенте Джордже Буше.

В докладе Кларк предложил собравшимся принять соответствующие меры к странам в восточной Европе, которые не оказывают должное содействие правоохранительным органам США в расследовании кибератак, ограничив им внутренний и внешний трафик, с помощью фильтрации и мониторинга. К таким странам он причислил Молдову, Россию и Белоруссию, аргументируя это тем, что местные правоохранительные органы закрывают глаза на действия хакеров, в случае, если злоумышленники орудуют за пределами страны. «Хакеры этих стран платят откаты правоохранительным органам или работают на правительство, если необходимо «замять дело», заявил он. По его мнению, названным странам необходимо больше внимания уделять этой ветке преступности и создать соответствующие условия и меры борьбы с ними.

Далее Кларк предложил участникам создать более безопасный Интернет, пересмотрев его фундаментальную архитектуру, тем самым сократив расходы потребителей на антивирусное программное обеспечение. Он объяснил это тем, что потребители, тратят огромные средства, покупая дорогие и новые версии антивирусного программного обеспечения, в надежде обеспечить безопасность своих данных, все равно остаются уязвимы для киберпреступников из-за несовершенства системы безопасности сети и самих продуктов.  

Кроме того, докладчик считает, что предложенные меры помогут предотвратить «развязывание кибервойны». В сети, помимо всего прочего, распространен промышленный шпионаж, цель которого является добыча секретной информации не только на уровне корпорации, но и государственном. Он объяснил это тем, что сегодня многие страны имеют в качестве «кибероружия» средства, способные разрушить систему защиты атакуемого, будь то компания или государственные службы, тем самым скомпрометировать секретные данные, которые, потом будут использованы против жертвы. Это может привести к серьезным последствиям.

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru