ChatGPT и Gemini генерируют пароли, которые можно взломать за часы

ChatGPT и Gemini генерируют пароли, которые можно взломать за часы

ChatGPT и Gemini генерируют пароли, которые можно взломать за часы

Генеративный ИИ плохо справляются с созданием надёжных паролей. К такому выводу пришли специалисты компании Irregular, изучающие вопросы безопасности ИИ. Исследователи протестировали Claude, ChatGPT и Gemini. Всем моделям дали одинаковую задачу: сгенерировать 16-символьный пароль с буквами разного регистра, цифрами и спецсимволами.

На первый взгляд результаты выглядели убедительно: онлайн-проверки сложности показывали «очень сильный пароль» и даже обещали «сотни лет» на взлом такой комбинации. Но, как выяснилось, это иллюзия.

Проблема в том, что чекеры не учитывают характерные шаблоны, которые используют языковые модели. А вот злоумышленники могут учитывать. По данным Irregular, все протестированные ИИ генерировали пароли с повторяющимися структурами — особенно в начале и в конце строки.

Например, при 50 отдельных запросах к Claude (модель Opus 4.6) исследователи получили только 30 уникальных паролей. Причём 18 из них оказались полностью идентичными. Почти все строки начинались и заканчивались одинаковыми символами. Кроме того, ни в одном из 50 вариантов не было повторяющихся символов, что тоже говорит о предсказуемости, а не о случайности.

 

Похожие закономерности обнаружились и у OpenAI GPT-5.2 и Gemini 3 Flash. Даже когда исследователи попросили модель Nano Banana Pro «написать случайный пароль на стикере», характерные шаблоны Gemini всё равно сохранялись.

 

The Register повторил эксперимент с Gemini 3 Pro. Модель предлагала три варианта: «высокой сложности», «с упором на символы» и «случайный буквенно-цифровой». Первые два следовали узнаваемым шаблонам, а третий выглядел более случайным. При этом Gemini отдельно предупреждала, что такие пароли не стоит использовать для важных аккаунтов, и советовала воспользоваться менеджером паролей — например, 1Password или Bitwarden.

 

Irregular пошла дальше и оценила энтропию (меру случайности) таких паролей. Для 16-символьных строк, созданных LLM, она составила примерно 20–27 бит. Для действительно случайного пароля той же длины показатель должен быть около 98–120 бит.

 

В практическом плане это означает, что подобные ИИ-пароли теоретически можно перебрать за несколько часов, даже на старом компьютере.

Дополнительная проблема в том, что шаблоны позволяют выявлять, где ИИ использовался для генерации паролей. Поиск характерных последовательностей символов в GitHub уже приводит к тестовым проектам, инструкциям и документации с такими строками.

В Irregular считают, что по мере роста популярности вайб-кодинга и автоматической генерации кода проблема может только усилиться. Если ИИ будет писать большую часть кода (как ранее предполагал CEO Anthropic Дарио Амодеи), то и слабые пароли, созданные моделями, могут массово проникнуть в проекты.

Совет по кодификации при президенте отклонил закон об ИИ Минцифры

Совет по кодификации при президенте резко раскритиковал и отклонил рамочный законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в России», подготовленный Минцифры. По мнению Совета, ряд положений документа противоречит Гражданскому кодексу и нормам, регулирующим защиту авторских прав.

Как считают эксперты, входящие в Совет, авторы законопроекта попытались создать параллельное регулирование для отношений, которые уже урегулированы другими правовыми актами.

Если исключить дублирующие нормы, то в документе, по сути, останутся только глоссарий и несколько декларативных положений. Иными словами, самостоятельный предмет регулирования в проекте фактически отсутствует.

«Гражданский кодекс — это фундамент, и пытаться строить на нём отдельные, противоречащие ему конструкции для каждой новой технологии — это путь к правовому хаосу. Если есть несколько здравых идей публично-правового характера — их место в профильном законе, а не в пустой законодательной оболочке, — прокомментировал Интерфаксу итоги заседания Совета его глава Павел Крашенинников. — Закон должен регулировать и давать ясность, а не создавать почву для злоупотреблений. Задача Совета — обеспечивать системность и стабильность гражданского законодательства, а не одобрять юридически пустые, пусть и модно звучащие, инициативы».

Заключения Совета будут направлены в администрацию президента, правительство и палаты Федерального Собрания.

Ранее этот же законопроект не менее жёстко критиковали крупные компании и бизнес-ассоциации. В общей сложности в обсуждении приняли участие более 150 экспертов, представляющих «Роснефть», «Россети», Ассоциацию предприятий компьютерных и информационных технологий (АПКИТ), Ассоциацию цифровых платформ (АЦП), Ассоциацию европейского бизнеса (АЕБ), Торгово-промышленную палату (ТПП), «МегаФон», РВБ (объединённую компанию Wildberries и Russ) и ряд других структур.

По мнению участников обсуждения, часть требований законопроекта попросту невыполнима. В частности, речь идёт об обучении моделей на основе наборов данных, сформированных в России. Однако таких данных недостаточно, а вычислительная база для их обработки отсутствует в необходимом объёме. Кроме того, как напоминают бизнес-ассоциации, в России сейчас нет ИИ-моделей, полностью созданных внутри страны.

Отдельные претензии вызвали положения, которые фактически запрещают использование ИИ для диагностики и лечения. Поскольку медицина относится к критической инфраструктуре, в условиях отсутствия полностью российских моделей под формальные ограничения могут попасть даже изделия, уже зарегистрированные в Росздравнадзоре.

В целом, как считают представители бизнеса, принятие законопроекта приведёт к росту затрат и увеличению сроков внедрения ИИ-проектов. Среди рисков они также называют возможный перенос разработок в другие юрисдикции, где регулирование в этой сфере остаётся менее жёстким.

RSS: Новости на портале Anti-Malware.ru