Взломавший iCloud Дженнифер Лоуренс хакер получил 8 месяцев тюрьмы

Взломавший iCloud Дженнифер Лоуренс хакер получил 8 месяцев тюрьмы

Взломавший iCloud Дженнифер Лоуренс хакер получил 8 месяцев тюрьмы

Человек, стоящий за взломом аккаунтов iCloud сотен людей, среди которых также были и знаменитости, в среду был приговорен к тюремному заключению. Об этом сообщило Министерство юстиции США.

26-летний Джордж Гарофано, житель Коннектикута, проведет за решеткой восемь месяцев. Еще в апреле он признал себя виновным «в получении несанкционированного доступа к защищенному компьютеру для сбора информации».

Обвинение утверждает, что Гарофано в период с апреля 2013 по октябрь 2014 года отправлял пользователям электронные письма, которые были замаскированы под официальные письма от корпорации Apple.

Благодаря такой тактике многие пользователи ввели свои учетные данные на стороннем фишинговом сайте, который принадлежал киберпреступнику. Позже американец использовал эту информацию для взлома приблизительно 240 аккаунтов iCloud.

Это дело вызвало общественный резонанс после того, как фотографии интимного характера таких звезд, как Дженнифер Лоуренс, Кирстен Данст и Арианы Гранде стали доступны широкой публике.

Согласно материалам следствия, многие жители Коннектикута, которые при этом не являются знаменитыми людьми, были также взломаны.

Гарофано начнет отбывать свой срок в октябре, также ему придется провести 60 часов общественных работ после освобождения из тюрьмы.

ChatGPT и Gemini генерируют пароли, которые можно взломать за часы

Генеративный ИИ плохо справляются с созданием надёжных паролей. К такому выводу пришли специалисты компании Irregular, изучающие вопросы безопасности ИИ. Исследователи протестировали Claude, ChatGPT и Gemini. Всем моделям дали одинаковую задачу: сгенерировать 16-символьный пароль с буквами разного регистра, цифрами и спецсимволами.

На первый взгляд результаты выглядели убедительно: онлайн-проверки сложности показывали «очень сильный пароль» и даже обещали «сотни лет» на взлом такой комбинации. Но, как выяснилось, это иллюзия.

Проблема в том, что чекеры не учитывают характерные шаблоны, которые используют языковые модели. А вот злоумышленники могут учитывать. По данным Irregular, все протестированные ИИ генерировали пароли с повторяющимися структурами — особенно в начале и в конце строки.

Например, при 50 отдельных запросах к Claude (модель Opus 4.6) исследователи получили только 30 уникальных паролей. Причём 18 из них оказались полностью идентичными. Почти все строки начинались и заканчивались одинаковыми символами. Кроме того, ни в одном из 50 вариантов не было повторяющихся символов, что тоже говорит о предсказуемости, а не о случайности.

 

Похожие закономерности обнаружились и у OpenAI GPT-5.2 и Gemini 3 Flash. Даже когда исследователи попросили модель Nano Banana Pro «написать случайный пароль на стикере», характерные шаблоны Gemini всё равно сохранялись.

 

The Register повторил эксперимент с Gemini 3 Pro. Модель предлагала три варианта: «высокой сложности», «с упором на символы» и «случайный буквенно-цифровой». Первые два следовали узнаваемым шаблонам, а третий выглядел более случайным. При этом Gemini отдельно предупреждала, что такие пароли не стоит использовать для важных аккаунтов, и советовала воспользоваться менеджером паролей — например, 1Password или Bitwarden.

 

Irregular пошла дальше и оценила энтропию (меру случайности) таких паролей. Для 16-символьных строк, созданных LLM, она составила примерно 20–27 бит. Для действительно случайного пароля той же длины показатель должен быть около 98–120 бит.

 

В практическом плане это означает, что подобные ИИ-пароли теоретически можно перебрать за несколько часов, даже на старом компьютере.

Дополнительная проблема в том, что шаблоны позволяют выявлять, где ИИ использовался для генерации паролей. Поиск характерных последовательностей символов в GitHub уже приводит к тестовым проектам, инструкциям и документации с такими строками.

В Irregular считают, что по мере роста популярности вайб-кодинга и автоматической генерации кода проблема может только усилиться. Если ИИ будет писать большую часть кода (как ранее предполагал CEO Anthropic Дарио Амодеи), то и слабые пароли, созданные моделями, могут массово проникнуть в проекты.

RSS: Новости на портале Anti-Malware.ru