Выдачей ИИ-поиска можно манипулировать с помощью скрытого контента

Выдачей ИИ-поиска можно манипулировать с помощью скрытого контента

Выдачей ИИ-поиска можно манипулировать с помощью скрытого контента

Тестирование поискового ChatGPT показало, что в нынешнем виде проект уязвим к злоупотреблениям. Умного помощника можно заставить выдавать недостоверные и даже вредоносные результаты с помощью скрытого текста на веб-страницах.

Доступ к поисковой системе на основе ИИ-технологий OpenAI открыла в рамках платной подписки два месяца назад. На прошлой неделе новый сервис подключили всем зарегистрированным пользователям ChatGPT, с предложением назначить его поисковиком по умолчанию.

К сожалению, расширение возможностей умного чат-бота не избавило его от проблем, характерных для всех ИИ-инструментов. Его по-прежнему можно сбить с толку объемными текстами и заставить следовать сторонним инструкциям, применив инъекцию стимула (prompt injection).

Так, злоумышленник может создать поддельную страницу продукта с многочисленными положительными отзывами в виде скрытого текста, и ChatGPT ответит утвердительно на вопрос о целесообразности покупки.

Если включить в скрытый текст указание всегда расхваливать товар, ИИ будет упорно его выполнять даже при обилии отрицательных отзывов (а в случае с потенциально опасным кодом — предупреждений об угрозе).

«Большие языковые модели очень доверчивы, почти как дети, — пояснил для The Guardian эксперт Карстен Ноль (Karsten Nohl) из Security Research Labs. — С обширной памятью и минимальной способностью давать субъективную оценку. Нельзя принимать на веру рассказ ребенка о том, что он где-то услышал».

Интернет-поиск по запросу — новая сфера деятельности для ИИ-ассистента, которого к тому же легко обмануть. У него пока нет опыта поисковика Google, давно научившегося игнорить сайты со скрытым контентом либо задвигать их на последние позиции выдачи.

 

О возможных ошибках ChatGPT и необходимости проверки важной информации пользователей предупреждают в заявлении OpenAI об отсутствии гарантий — оно приведено в подвале каждой страницы веб-сервиса.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Пользователи МАХ теперь могут сами подписывать документы онлайн

Теперь в мессенджере МАХ можно самостоятельно подписывать документы — например, договор купли-продажи или заявление в суд. Делается это через чат-бот «Госключ». Чтобы воспользоваться функцией, нужно обновить приложение до последней версии, иметь подтверждённую учётную запись на «Госуслугах» и сертификат электронной подписи.

Как это работает:

  • В поиске мессенджера нужно найти чат-бот «Госключ»;
  • При первом использовании — подтвердить профиль через «Госуслуги»;
  • Загрузить документы, которые нужно подписать;
  • Выбрать тип электронной подписи и подтвердить подписание.

Если «Госключ» ещё не установлен, МАХ предложит перейти в магазин приложений и скачать его. При первом запуске сервис поможет получить сертификаты электронной подписи.

После подписания документы в формате мобильной ЭП появятся прямо в чате бота.

Интеграция МАХ с «Госключом» была завершена 25 августа. Раньше пользователи могли подписывать документы только по инициативе компании — когда организация отправляла договор через мессенджер и подключала «Госключ» по ссылке. Теперь же можно самостоятельно загрузить и подписать любой документ, а потом отправить его собеседнику.

В прошлом месяце мы также писали, что MAX успешно подключили к Госуслугам через OpenID Connect. В случае с мессенджером MAX, авторизация через OpenID Connect реализована аппаратно — за поставку оборудования отвечает «Инфотекс Интернет Траст».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru