Gemini превратил Google Календарь в канал утечки данных

Gemini превратил Google Календарь в канал утечки данных

Gemini превратил Google Календарь в канал утечки данных

Исследователи в области кибербезопасности снова напомнили: там, где появляется ИИ, появляются и новые нетривиальные способы атаки. На этот раз под прицелом оказался Google Gemini и, что особенно неприятно, связка ИИ с Google Календарём.

Как рассказал руководитель исследований компании Miggo Security Лиад Элиягу, уязвимость позволяла обойти защитные механизмы Google Календаря и использовать его как канал утечки данных. Причём без какого-либо активного участия пользователя.

Сценарий выглядел так: злоумышленник отправлял жертве обычное приглашение в календарь. Никаких подозрительных ссылок — просто событие. Но в описании встречи был спрятан «спящий» текст на естественном языке — по сути, вредоносный промпт, рассчитанный на то, что его обработает Gemini.

Атака активировалась позже, когда пользователь задавал ИИ самый обычный вопрос вроде «Есть ли у меня встречи во вторник?». Gemini, выполняя свою работу, просматривал события календаря, натыкался на внедрённый промпт и начинал действовать по его инструкции. В результате чат-бот создавал новое событие в календаре и записывал в его описание подробную сводку всех встреч пользователя за выбранный день.

Для самого человека всё выглядело спокойно: Gemini выдавал нейтральный ответ, никаких предупреждений не возникало. Но «за кулисами» в календаре появлялось новое событие, которое во многих корпоративных конфигурациях было видно и отправителю исходного инвайта. Так приватные данные о встречах — участники, темы, расписание — оказывались у атакующего.

 

По словам специалистов, это позволяло не только читать конфиденциальную информацию, но и создавать вводящие в заблуждение события в календаре жертвы, снова без её прямого участия. Проблему уже закрыли после ответственного раскрытия, но сам подход показателен.

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

RSS: Новости на портале Anti-Malware.ru