ИИ в WhatsApp получил функцию организации диалогов

ИИ в WhatsApp получил функцию организации диалогов

ИИ в WhatsApp получил функцию организации диалогов

В свежей бета-версии WhatsApp (принадлежит Meta, признанной экстремистской и запрещенной в России) для Android (2.26.9.4) появилась новая функция с участием Meta AI. Теперь пользователи могут структурировать диалоги с ИИ: каждый новый промпт запускает отдельную «ветку» общения.

По данным WABetaInfo, часть бета-тестеров уже видит изменения. Формально каждая сессия с Meta AI считается самостоятельным разговором: информация из одной ветки не переносится автоматически в другую. Это должно упростить навигацию и помочь отслеживать, где именно обсуждалась та или иная тема.

При этом все диалоги с ИИ по-прежнему отображаются в едином интерфейсе. Более того, память у Meta AI остаётся общей для всех веток, если пользователь специально не отключит её в настройках контакта. То есть ИИ всё равно может учитывать предыдущие взаимодействия.

 

Функция выглядит удобной для тех, кто активно использует ИИ для поиска информации, генерации текстов или планирования. Но вместе с удобством возникают и вопросы о конфиденциальности.

Сообщения, отправленные Meta AI, обрабатываются на серверах компании, в отличие от обычных пользовательских чатов со сквозным шифрованием. Это значит, что переписка с ИИ выходит за рамки стандартной модели «сквозного» шифрования WhatsApp.

Пользователи могут делиться важной информацией (от личных данных до финансовых или медицинских деталей) не всегда задумываясь, как долго такие данные хранятся и как именно используются. В ЕС регуляторы уже обращали внимание на то, что некоторые сценарии обработки ИИ-данных требуют отдельного согласия.

Кроме того, Meta ранее подвергалась критике за практики обучения своих моделей. В официальных материалах компания отмечала, что взаимодействие с генеративными ИИ-инструментами может использоваться для персонализации контента и рекламы. Отказаться от такого использования данных нельзя.

В компании заявляют, что уделяют большое внимание защите информации. Однако как именно новые механизмы будут работать на практике, покажет время.

Google Chrome загружает Gemini без согласия пользователей

Google Chrome заподозрили в автоматической загрузке локальной версии ИИ-модели Gemini без явного согласия пользователей. По мнению экспертов, это может создавать риски для конфиденциальности данных граждан и компаний, а также противоречить законодательству ряда стран, включая Россию.

На то, что Google начала загружать на компьютеры пользователей локальную версию Gemini, обратила внимание «Российская газета» со ссылкой на сообщения в соцсетях.

Объем локальной копии Gemini составляет около 4 Гбайт. Сообщается, что модель может автоматически запускаться при обращении к сервисам Google.

Первый заместитель председателя комитета Госдумы по информационной политике, председатель правления РОЦИТ Антон Горелкин предположил, что Google может использовать пользовательские устройства как элементы распределенной вычислительной сети:

«Ничто не мешает объединить все компьютеры с Gemini в одну большую распределенную сеть — и экономить на вычислительных ресурсах, задействуя оборудование пользователей, при этом взимая плату за подписку».

По его словам, в России Gemini пока не распространяется для локальной установки, поскольку доступ к сервису официально не продается. Однако он не исключил, что подобная практика может появиться позже, после тестирования модели.

Руководитель команды киберзащиты облачного провайдера Nubes Дмитрий Шкуропат отметил, что установка без явного согласия пользователя может нарушать требования законодательства о защите персональных данных и правах потребителей, в том числе российского.

Кроме того, локальная ИИ-модель теоретически способна получить доступ к данным на рабочей станции — паролям, переписке и файлам, что создает риски их компрометации, особенно для бизнеса.

Ведущий эксперт по сетевым угрозам, веб-разработчик компании «Код Безопасности» Константин Горбунов также указал на вероятность доступа ИИ к значительным объемам данных, включая критически важную информацию. Дополнительный риск возникает в случае, если злоумышленники получат доступ к данным, с которыми работает модель.

Ранее сообщалось, что кибергруппировки как минимум предпринимали попытки использовать Gemini для повышения эффективности целевых атак. Наиболее активно, по данным экспертов, ИИ-модель Google применяли хакеры из Китая и Ирана.

RSS: Новости на портале Anti-Malware.ru