Эксперт показал, как фишеры могут маскировать URL с помощью Google Meet

Эксперт показал, как фишеры могут маскировать URL с помощью Google Meet

Эксперт показал, как фишеры могут маскировать URL с помощью Google Meet

Шон Райт, специалист в области кибербезопасности, выявил уязвимость в популярном сервисе для видеоконференций Google Meet. Проблема кроется в конвертации URL, поскольку создаваемые редиректы — отличный инструмент для фишинга.

Как отмечает Райт в блоге, открытые редиректы перенаправляют пользователя с URL Google на другой веб-ресурс, выбранный тем, кто генерировал ссылку. Если такой URL запостить в чат Google Meet, он конвертируется в специальную ссылку.

«При переходе по такой ссылке она отредиректит пользователя на нужный адрес. Однако проблема подобных URL в том, что они являются отличным инструментом для фишинга», — пишет исследователь.

«Как правило, пользователи смотрят на начало URL, чтобы убедиться в его легитимности. Но тут все ссылки будут вида meet.google.com, так что многие сразу же отбросят всякие сомнения в безопасности таких URL».

В блоге Райт также продемонстрировал процесс перенаправления пользователя на вредоносный сайт, имитирующий старицу входа в учётную запись Google. По словам специалиста, фишерам поможет ещё одна привычка рядового пользователя — смотреть на ссылку до того, как пройти по ней, но не после.

Проще говоря, Райт пытается указать на способ маскировки вредоносных URL и свободного перенаправления пользователей на фишинговые веб-ресурсы. Google же явно считает проблему надуманной, поскольку в корпорации ответили отказом на просьбу Райта устранить проблему безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Whisper Leak: новая атака раскрывает темы диалогов с ИИ даже при шифровании

Исследователи Microsoft рассказали о новом векторе кибератаки под кодовым названием Whisper Leak. Он позволяет злоумышленникам вычислять, о чём человек разговаривает с искусственным интеллектом, даже если весь трафик зашифрован.

Наблюдая за сетевым трафиком между пользователем и языковой моделью, атакующий может анализировать размеры и интервалы передачи пакетов, чтобы определить тему диалога.

При этом содержимое сообщений остаётся зашифрованным, но характер обмена данными оказывается достаточно информативным, чтобы классифицировать разговор.

Как предупредила Microsoft, в зоне риска находятся пользователи, чей трафик может быть перехвачен — например, на уровне интернет-провайдера, в локальной сети или при подключении к общему Wi-Fi.

Исследователи отмечают, что атака может применяться для слежки за темами вроде финансовых операций, политических обсуждений или других конфиденциальных запросов.

Whisper Leak использует особенности потоковой генерации ответов (streaming mode), когда языковая модель отправляет текст постепенно, а не целиком после завершения обработки. Это даёт злоумышленнику возможность фиксировать различия в размерах и частоте пакетов данных, а затем с помощью алгоритмов машинного обучения — таких как LightGBM, Bi-LSTM и BERT — определять, к какой теме относится запрос.

 

По данным Microsoft, при тестировании многие модели — включая решения от Alibaba, DeepSeek, Mistral, Microsoft, OpenAI и xAI — показали точность классификации выше 98%. У моделей Google и Amazon результаты были лучше за счёт иной архитектуры, но и они оказались не полностью защищены.

После уведомления об уязвимости компании OpenAI, Microsoft, Mistral и xAI внедрили меры защиты. Одним из эффективных методов стало добавление случайных текстовых вставок переменной длины в ответы модели. Это делает размеры пакетов менее предсказуемыми и мешает анализировать поток данных.

Microsoft также рекомендует пользователям избегать обсуждения конфиденциальных тем при работе с чат-ботами через общественные сети, использовать VPN, по возможности выбирать непотоковые версии моделей и отдавать предпочтение сервисам, уже внедрившим защиту от подобных атак.

По сути, Whisper Leak показывает, что даже шифрование не всегда гарантирует приватность, если злоумышленник умеет «слушать» не слова, а ритм и объём разговора с искусственным интеллектом.

Подробнее о тёмной стороне искусственного интеллекта, а также угрозах, которые он несёт, можно почитать в нашей статье.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru