Баг LinkedIn позволял похищать данные профилей пользователей

Баг LinkedIn позволял похищать данные профилей пользователей

Баг LinkedIn позволял похищать данные профилей пользователей

Ошибка в работе плагина AutoFill от LinkedIn позволяет злоумышленникам похищать данные профилей пользователей. С помощью AutoFill пользователи могут автоматически заполнять информацию из своего профиля (например: имя, адрес электронной почты, местонахождение и место работы) на одобренных сторонних сайтах.

По сути, существует некий белый список доменов, на которых LinkedIn позволяет осуществлять подобные возможности. Каждый новый домен соцсеть должна одобрить самостоятельно. На данный момент в этом белом списке присутствуют десятки крупных сайтов, среди них Twitter, официальный сайт Microsoft.

На деле это значит, что любой из этих веб-сайтов может получать данные профилей пользователей без их участия. Однако тут есть нюанс — если какой-либо из этих сайтов содержит уязвимость межсайтового скриптинга (XSS), которая позволяет злоумышленнику запускать вредоносный код, атакующий может использовать этот домен для получения данных профиля LinkedIn.

«Личная информация пользователя может быть скомпрометирована, если он просто кликнет какой-либо элемент на проблемном сайте», — объясняет эксперт в опубликованном в четверг отчете. — «Это связано с тем, что кнопка AutoFill может быть невидимой и охватывать всю страницу, таким образом, где бы ни кликнул пользователь, его информация отправиться злоумышленникам».

Представители социальной сети никак не отреагировали на первоначальное замечание обнаружившего баг исследователя. Лишь после того, как информация об уязвимости была раскрыта, разработчики LinkedIn отозвались, что брешь устранена.

Эксперт опубликовал код proof-of-concept, демонстрирующий наличие уязвимости.

«Самое страшное — информация пользователя утечет независимо от его настроек конфиденциальности. Даже если я выставлю настройки так, что мое имя, адрес электронной почты и местоположение не будут отображаться, киберпреступники все равно получат эти данные», — продолжает специалист.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Российские учёные научили ИИ ловить фейковые фото и нелепые изображения

Исследователи из AIRI, Сколтеха, MWS AI и МФТИ по-новому решили одну из наиболее сложных задач компьютерного зрения — выявление изображений с нелогичным содержанием, вроде рыцаря с мобильником или пингвина на велосипеде.

Разработанный ими метод TLG (Through the Looking Glass, «В Зазеркалье») использует ИИ для создания текстовых описаний картинок и обнаружения противоречий при сопоставлении с визуальным содержанием.

В комментарии для «Известий» один из соавторов проекта, доктор компьютерных наук Александр Панченко пояснил: существующие ИИ-модели хорошо распознают элементы картинок, но плохо улавливают контекст — далеко не всегда понимают совместимость представленных объектов с точки зрения здравого смысла.

Чтобы проверить действенность своего подхода, экспериментаторы создали датасет, включив него 824 изображения с нелепыми ситуациями. Тестирование алгоритма показало точность распознавания до 87,5%, что на 0,5-15% выше показателей других существующих моделей, а также большую экономию вычислительных ресурсов.

Новаторская разработка, по словам Панченко, способна повысить надежность систем компьютерного зрения. После доработки и дообучения ее также можно будет использовать для модерации контента — к примеру, для выявления фейковых фото.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru