"Лаборатория Касперского" запатентовала новый способ борьбы с фишингом

"Лаборатория Касперского" запатентовала новый способ борьбы с фишингом

"Лаборатория Касперского" запатентовала в России новую систему противодействия фишинг-атакам. Патент No.103643 описывает способ определения подлинного соответствия доменного имени сайта и IP-адреса, благодаря чему эффективно блокируются попытки злоумышленников перенаправить пользователя на поддельную веб-страницу.



В классической фишинговой атаке злоумышленники распространяют поддельные электронные сообщения, в которых от имени доверенной организации - например, системы онлайн-банкинга или социальной сети - делается запрос конфиденциальных данных. В письме указывается ссылка, которая ведет на поддельную веб-страницу, имитирующую реально существующий сайт. Жертвы обмана, сообщают злоумышленникам информацию, которая впоследствии может быть использована в различных целях. Например, для рассылки спама от имени учетной записи пользователя в социальной сети, кражи денежных средств с банковской карты или со счета в онлайновой платежной системе, либо для вымогательства денег за возврат доступа к аккаунта, сообщает информационная служба "Лаборатории Касперского".

Для противодействия фишинг-атакам обычно используются черные списки поддельных сайтов, либо сравнение URL веб-страниц, на которые перенаправляется пользователь, с подлинными. Указанные способы имеют свои недостатки. Например, сверка имени сайта с черным списком неэффективна для вновь появляющихся поддельных адресов, а белый список подлинных веб-страниц не позволяет бороться с методом подмены IP-адреса запрашиваемого ресурса.

Новая технология "Лаборатории Касперского" использует более эффективный метод, позволяющий оперативно выявлять фишинговые сайты, перенаправление на которые осуществляется автоматически и скрытно в результате фарминг-атаки. В случае подобной атаки пользователь вводит URL подлинного сайта, но скрытно перенаправляется на ложный IP-адрес, по которому расположена поддельная страница. Суть технологии, разработанной Алексеем Малышевым и Тимуром Биячуевым, заключается в создании дублирующего безопасного канала связи. По этому каналу для определенного списка сайтов можно установить настоящее соответствие IP-адреса и доменного имени. В результате данный метод защищает пользователей в момент обращения, не допускает посещение фишинговых сайтов и помогает выявить факт фарминг-атаки. Новая технология также позволяет оперативно пополнять базу с адресами поддельных страниц для использования в модулях защиты от фишинговых атак.

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru