Умный свидетель: пароли и кредитки у голосовой колонки лучше не упоминать

Умный свидетель: пароли и кредитки у голосовой колонки лучше не упоминать

Умный свидетель: пароли и кредитки у голосовой колонки лучше не упоминать

Обсуждать личные и конфиденциальные данные рядом с умными колонками не стоит, советуют эксперты по кибербезопасности. Рекомендации стали раздавать после истории с исходным кодом “Алисы” от Яндекса. Разработчик уверяет, что голосовой помощник “начеку” только в бета-версии.

Пользователям не стоит произносить вслух номера кредитных карт и пароли, находясь рядом с умными колонками, заявили опрошенные РИА Новости эксперты. Подобные устройства могут стать целью злоумышленников.

Отказываться от помощников или нет — личный выбор каждого, рассуждает эксперт Kaspersky по кибербезопасности ICS CERT Владимир Дащенко.

Однако ежедневное использование подобных устройств можно сделать безопаснее, соблюдая ряд несложных рекомендаций, говорит специалист.

Не следует озвучивать конфиденциальную информацию поблизости от умных колонок: это касается номеров кредитных карт, паролей, номеров документов и других данных.

Также лучше отключать колонку от Сети, если дома никого нет, советует Дащенко.

Имеет значение и расположение колонки. Лучше не ставить устройство на подоконник: она может привлечь внимание злоумышленников и стать приманкой для возможной кибератаки или вторжения в дом, поясняет эксперт.

"Любые IoT-устройства, если они подключены к интернету, могут потенциально стать целью для злоумышленников”, — соглашается старший специалист группы исследований безопасности мобильных приложений Positive Technologies Артем Кулаков. По его словам, лучше не рисковать и не оставлять устройства в помещении, где обсуждают важные вопросы.

Покупать умные устройства нужно только у официальных производителей. Это снизит риск того, что данные станут общедоступными. Напомним недавний случай с канадским консультантом по безопасности, купившим на Amazon приставку Android TV со встроенной в прошивку вредоносной программой.

Еще несколько правил “умной” гигиены от экспертов: патчить устройства и приложения к ним, разобраться с настройками колонки и ограничить ее в правах.

Интерес к вопросу передачи данных “умными” ассистентами вырос после утечки исходного кода сервисов Яндекса. В слитом бывшим сотрудником репозитории упоминалось, что голосовая колонка Алиса в бета-версии может включаться сама, не уведомив об этом окружающих.

Добавим, данные могут собирать не только “умные” колонки. Передачу геолокации смартфона, слов-триггеров владельца и другой телеметрии разработчики уже не скрывают и не оправдываются за это.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru