Верховный суд Австралии рассматривает апелляцию по делу Google AdWords

Верховный суд Австралии рассматривает апелляцию по делу Google AdWords

 На этой неделе Верховный суд Австралии рассматривает апелляцию компании Google на решение суда низшей инстанции. Согласно этому решению, компания была признана виновной в недобросовестной рекламе, и должна была отключить показы целевой рекламы для интернет-пользователей Австралии, осуществляемые посредством сервиса Google AdWords.

Иск по данному делу был подан еще в 2007 году Австралийской комиссией по конкуренции и потреблению (ACCC). Комиссия подала иск против рекламодателей, выкупающих показы целевой рекламы в Google AdWords. При этом показы их рекламы осуществлялись, когда интернет-пользователи пытались найти информацию об их конкурентах. Например, если пользователь искал информацию об автомобилях марки Ford, то в результатах поискового запроса ему выдавались рекламные ссылки на сайты дилеров производителей других марок автомобилей, где Ford просто упоминался.

Как заявили представители ACCC, подобная практика является нарушением торгового законодательства Австралии (Trade Practices Act) так как вводит в заблуждение потребителей. По мнению АССС, подобная практика является обманом пользователей и активно применяется Google, которая и выступила ответчиком по данному иску. Представителям комиссии показался неубедительным даже тот факт, что рекламодатели выбирают критерии поиска для показов своей рекламы самостоятельно. Тем не менее, адвокаты Google заявили, что, с учетом этого факта, компания не может нести ответственность за действия рекламодателей. Суд первой инстанции посчитал эти аргументы достаточно убедительными, и Google выиграла дело.

Позднее апелляционный суд отменил данное решение, посчитав, что причиной недобросовестной рекламы является алгоритм работы самого сервиса AdWords, работающего в автоматическом режиме.

Суд вынес решение, согласно которому, компания должна была отключить показы целевой рекламы для интернет-пользователей Австралии, осуществляемые посредством Google AdWords.

Адвокаты Google подали апелляцию на данное решение в Верховный суд Австралии.

По мнению экспертов, адвокаты Google будут строить защиту на трех аргументах:

1.Спонсорская ссылка состоит из трех элементов, содержимое которых определяется рекламодателем. Это может быть заголовок, тексты рекламных объявлений и ссылки. Все эти элементы рекламодатель определяет по своему усмотрению.

2.Используя поисковые системы, пользователи понимают, что спонсорские ссылки оплачиваются рекламодателями и носят рекламный характер.

3.То, что истец (ACCC) рассматривает, как введение в заблуждение и обман потребителей, на практике является обычной репрезентацией торгового сотрудничества либо взаимоотношений иного рода между хозяйствующими субъектами.

В свою очередь, представители ACCC будут настаивать на том, что:

1.Google, используя собственные алгоритмы, заложенные в Google AdWords, способна определять, какаю рекламу следует показывать в ответ на тот или иной поисковый запрос, и в полной мере использует эту возможность.

2.Специалисты Google сами вставляли ключевые слова поисковых запросов интернет-пользователей в заголовки рекламных объявлений.

3.Специалисты Google формировали активные ссылки, связывая заголовки со ссылками, предоставляемыми рекламодателями.

Следует отметить, что данный иск является первым иском подобного рода против компании Google и решение, принятое верховным судом Австралии, вполне может стать судебным прецедентом.

ChatGPT и Gemini генерируют пароли, которые можно взломать за часы

Генеративный ИИ плохо справляются с созданием надёжных паролей. К такому выводу пришли специалисты компании Irregular, изучающие вопросы безопасности ИИ. Исследователи протестировали Claude, ChatGPT и Gemini. Всем моделям дали одинаковую задачу: сгенерировать 16-символьный пароль с буквами разного регистра, цифрами и спецсимволами.

На первый взгляд результаты выглядели убедительно: онлайн-проверки сложности показывали «очень сильный пароль» и даже обещали «сотни лет» на взлом такой комбинации. Но, как выяснилось, это иллюзия.

Проблема в том, что чекеры не учитывают характерные шаблоны, которые используют языковые модели. А вот злоумышленники могут учитывать. По данным Irregular, все протестированные ИИ генерировали пароли с повторяющимися структурами — особенно в начале и в конце строки.

Например, при 50 отдельных запросах к Claude (модель Opus 4.6) исследователи получили только 30 уникальных паролей. Причём 18 из них оказались полностью идентичными. Почти все строки начинались и заканчивались одинаковыми символами. Кроме того, ни в одном из 50 вариантов не было повторяющихся символов, что тоже говорит о предсказуемости, а не о случайности.

 

Похожие закономерности обнаружились и у OpenAI GPT-5.2 и Gemini 3 Flash. Даже когда исследователи попросили модель Nano Banana Pro «написать случайный пароль на стикере», характерные шаблоны Gemini всё равно сохранялись.

 

The Register повторил эксперимент с Gemini 3 Pro. Модель предлагала три варианта: «высокой сложности», «с упором на символы» и «случайный буквенно-цифровой». Первые два следовали узнаваемым шаблонам, а третий выглядел более случайным. При этом Gemini отдельно предупреждала, что такие пароли не стоит использовать для важных аккаунтов, и советовала воспользоваться менеджером паролей — например, 1Password или Bitwarden.

 

Irregular пошла дальше и оценила энтропию (меру случайности) таких паролей. Для 16-символьных строк, созданных LLM, она составила примерно 20–27 бит. Для действительно случайного пароля той же длины показатель должен быть около 98–120 бит.

 

В практическом плане это означает, что подобные ИИ-пароли теоретически можно перебрать за несколько часов, даже на старом компьютере.

Дополнительная проблема в том, что шаблоны позволяют выявлять, где ИИ использовался для генерации паролей. Поиск характерных последовательностей символов в GitHub уже приводит к тестовым проектам, инструкциям и документации с такими строками.

В Irregular считают, что по мере роста популярности вайб-кодинга и автоматической генерации кода проблема может только усилиться. Если ИИ будет писать большую часть кода (как ранее предполагал CEO Anthropic Дарио Амодеи), то и слабые пароли, созданные моделями, могут массово проникнуть в проекты.

RSS: Новости на портале Anti-Malware.ru