Россияне определили идеального голосового помощника

Россияне определили идеального голосового помощника

Россияне определили идеального голосового помощника

Как показало исследование разработчика голосовых помощников, проведенное совместно с исследовательским центром «Позиция», идеальный голосовой помощник должен быть вежливым, спокойным и звонить днем.

Опрос был проведен среди жителей городов с населением свыше миллиона человек. В нем приняли участие 1233 респондента.

Как показали результаты, почти две трети (61%) россиян регулярно сталкиваются с голосовыми роботами на горячей линии. 40% опрошенных предпочитают звонить на горячую линию днём с 12:00 до 18:00, 29% — вечером с 18:00 до 22:00.

Принимать входящие звонки от роботизированных операторов колл-центров россияне также в большинстве случаев предпочитают днём (44%) или вечером (31%).

В голосе робота более чем трети россиян (34%) нравится вежливость. На втором месте идет схожесть голоса с человеческим (28%). Третье и четвертое места разделили официальность и четкое произношение слов, которые набрали по 25%.

Как оказалось, тембр голоса для россиян не имеет большого значения. Так ответили 40%. Оставшиеся разделились почти поровну между мужскими и женскими, правда последние набрали чуть больше голосов. По данным международных исследований, предпочтительным является женский голос.

Половина опрошенных считает, что обращение робота к абоненту по имени и отчеству никак не влияет на повышение доверия к машине. По мнению трети такое обращение располагает к доверительной коммуникации.

Но при этом полностью доверяют голосовому помощнику важную информацию 25% россиян. Около 40% опрошенных не доверяют голосовому ассистенту на горячей линии важную информацию, а больше трети – лишь отдельные тезисы.

Для 43% россиян важно, чтобы робот в разговоре признавался, что он робот. 33% респондентов ответили, что это не важно. Для оставшихся опрошенных этот факт не имеет значения.

«Для реализации голосового агента разработчики используют собственную экспертизу для выбора под каждый конкретный сценарий не только наиболее конверсионного диктора, но и такие важные параметры как: темп речи, ненавязчивость, а также лояльность и доброжелательность при общении с абонентом, — отметил коммерческий директор Neuro.net Александр Лошкарев. — Голосовой помощник должен быть не только голосом бренда и следовать внутреннему регламенту компании при коммуникации, но и быть настоящим помощником, способным решить любой вопрос абонента. Индивидуальная разработка голосовых агентов под требования заказчиков позволяет решить все эти вопросы и адаптировать робота под любую вариативность в диалоге».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru