Грамматические ошибки повышают надежность паролей

Грамматические ошибки повышают надежность паролей

Группа ученых из американского университета Карнеги-Меллон предлагает обитателям глобальной сети простой и эффективный способ защиты персональных учетных записей от взлома. При выборе пароля, предназначенного для входа на различные сайты, исследователи рекомендуют использовать слова и фразы, написанные с ошибками.

Многим интернет-пользователям известно, что дата собственного дня рождения, кличка домашнего любимца или название родного города являются классическими образцами небезопасного пароля. Однако, большинство владельцев компьютеров уверены в том, что надежность пароля напрямую зависит от количества символов. Специальный алгоритм, разработанный учеными в демонстрационных целях, без труда опровергает это распространенное заблуждение, передает soft.mail.ru.

«Самые хитроумные пользователи пытаются решить проблему путем увеличения длины пароля. Однако им также необходимо сделать кодовое слово легко запоминающимся. Так на свет появляются сложные конструкции, состоящие из нескольких слов или фраз, такие как «длинныйиоченьнадежныйпароль. – объясняет руководитель исследовательской группы Ашвини Рао (Ashwini Rao), – Однако для нашего алгоритма такие пароли не являются серьезной преградой, также как и другие осмысленные сочетания символов, например, почтовый адрес, адрес электронной почты или URL».

В отличие от стандартных атак «brute force», которые заключаются в подстановке отдельных слов из словаря, новая методика позволяет испытывать пароли на прочность путем перебора различных сочетаний слов. Ашвини Рао утверждает, что во время проводимых испытаний алгоритм смог без труда подобрать 10% длинных паролей, представляющих собой осмысленную фразу.

А учитывая стремительно растущие вычислительные мощности современных систем, на решение этой задачи уходит все меньше и меньше времени. Не самый дорогой компьютер, стоимостью в 3000 долларов, способен осуществлять перебор паролей со скоростью до 33 миллиардов вариантов в секунду.

Зато такой простой способ, как намеренное искажение известных слов срабатывает «на ура». Таким образом, грамматические ошибки, намеренно допущенные пользователем, способны существенно снизить эффективность атак, проводимых с применением «грубой силы».

Ученые готовы поделиться своими наблюдениями и продемонстрировать работу алгоритма на конференции «Conference on Data and Application Security and Privacy», которая состоится в городе Сан-Антонио в следующем месяце.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Whisper Leak: новая атака раскрывает темы диалогов с ИИ даже при шифровании

Исследователи Microsoft рассказали о новом векторе кибератаки под кодовым названием Whisper Leak. Он позволяет злоумышленникам вычислять, о чём человек разговаривает с искусственным интеллектом, даже если весь трафик зашифрован.

Наблюдая за сетевым трафиком между пользователем и языковой моделью, атакующий может анализировать размеры и интервалы передачи пакетов, чтобы определить тему диалога.

При этом содержимое сообщений остаётся зашифрованным, но характер обмена данными оказывается достаточно информативным, чтобы классифицировать разговор.

Как предупредила Microsoft, в зоне риска находятся пользователи, чей трафик может быть перехвачен — например, на уровне интернет-провайдера, в локальной сети или при подключении к общему Wi-Fi.

Исследователи отмечают, что атака может применяться для слежки за темами вроде финансовых операций, политических обсуждений или других конфиденциальных запросов.

Whisper Leak использует особенности потоковой генерации ответов (streaming mode), когда языковая модель отправляет текст постепенно, а не целиком после завершения обработки. Это даёт злоумышленнику возможность фиксировать различия в размерах и частоте пакетов данных, а затем с помощью алгоритмов машинного обучения — таких как LightGBM, Bi-LSTM и BERT — определять, к какой теме относится запрос.

 

По данным Microsoft, при тестировании многие модели — включая решения от Alibaba, DeepSeek, Mistral, Microsoft, OpenAI и xAI — показали точность классификации выше 98%. У моделей Google и Amazon результаты были лучше за счёт иной архитектуры, но и они оказались не полностью защищены.

После уведомления об уязвимости компании OpenAI, Microsoft, Mistral и xAI внедрили меры защиты. Одним из эффективных методов стало добавление случайных текстовых вставок переменной длины в ответы модели. Это делает размеры пакетов менее предсказуемыми и мешает анализировать поток данных.

Microsoft также рекомендует пользователям избегать обсуждения конфиденциальных тем при работе с чат-ботами через общественные сети, использовать VPN, по возможности выбирать непотоковые версии моделей и отдавать предпочтение сервисам, уже внедрившим защиту от подобных атак.

По сути, Whisper Leak показывает, что даже шифрование не всегда гарантирует приватность, если злоумышленник умеет «слушать» не слова, а ритм и объём разговора с искусственным интеллектом.

Подробнее о тёмной стороне искусственного интеллекта, а также угрозах, которые он несёт, можно почитать в нашей статье.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru