Телефонные мошенники пытаются украсть деньги, устроив охоту на самих себя

Телефонные мошенники пытаются украсть деньги, устроив охоту на самих себя

Телефонные мошенники пытаются украсть деньги, устроив охоту на самих себя

Специалисты «Тинькофф Банка» выявили новый сценарий телефонного мошенничества. Сначала аферисты выманивают код 2FA и сознаются в обмане, затем имитируют поиск преступника и просят помощи, а для сохранности денег предлагают перевести их на «безопасный» счет.

При этом злоумышленники звонят с разных номеров — от имени оператора связи, госуслуг, Росфинмониторинга, полиции. В ходе массированной атаки по телефону собеседника пугают угрозой взлома аккаунта, кражи денег, уголовного преследования.

На первом этапе лжесотрудник оператора применяет хорошо известную уловку: сообщает о необходимости продлить срок договора (можно через госуслуги), под этим предлогом выманивает одноразовый код из СМС, а затем сознается в обмане и попытке украсть деньги.

После этого поступает тревожный звонок с другого неизвестного номера — якобы с госуслуг. Чуть позже намеченной жертве предлагают помощь от имени Финмониторинга; для этого требуется установить антивирус или некий софт банка для отслеживания действий недобросовестных сотрудников.

На самом деле это программа удаленного доступа, позволяющая мошенникам получить конфиденциальные данные (состояние счета, коды из банковского приложения) для пущей убедительности.

Собеседника просят помочь в поимке преступников, у которых якобы есть сообщник в банке, и предупреждают о грядущем звонке «из полиции». Инструкциям нужно следовать неукоснительно, в противном случае добровольного помощника могут самого заподозрить в пособничестве.

Чтобы спасти деньги, аферисты предлагают проехать к банкомату и оставаться на связи. На финальном этапе лжепредставитель правоохраны сообщает, что все накопления следует перевести на счет в другом банке.

Один из клиентов «Тинькофф» потерял таким образом 1,5 млн руб. и узнал об этом только после звонка из банка, обнаружившего подозрительные операции. После подачи заявления ему возместили потерю в рамках программы «Защитим или вернем деньги».

По данным «Тинькофф Банка», с начала года число атак по такому сценарию возросло в 3,5 раза. В период с сентября 2023 года по февраль 2024-го сервис «Защитим или вернем деньги» помог клиентам сохранить 170 млн руб.; пострадавшим от действий мошенников суммарно компенсировали 4,5 млн рублей.

Банк России составил список фраз, которые часто используют телефонные мошенники. Услышав «сотрудник Цетробанка», «истекает срок сим-карты», «продиктуйте код из СМС», рекомендуется сразу отключиться. Перечень самых распространенных сценариев развода по телефону был недавно опубликован в одном из телеграм-каналов МВД.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Ошибка ChatGPT привела к утечке личных промптов в Google Search Console

Несколько месяцев подряд в Google Search Console — инструменте, который веб-мастера используют для анализа поискового трафика, — появляются очень странные запросы. Вместо привычных коротких ключевых слов там стали попадаться целые абзацы текста — личные обращения пользователей к ChatGPT.

Иногда длина таких «запросов» превышала 300 символов, а по содержанию они выглядели как частные разговоры: кто-то спрашивал совет по отношениям, кто-то обсуждал рабочие вопросы.

Проблему первым заметил аналитик Джейсон Пакер из компании Quantable. Он опубликовал запись в блоге, где рассказал о десятках подобных случаев, а позже объединился с SEO-экспертом Слободаном Маничем, чтобы разобраться, откуда берутся эти данные.

По их версии, найденной утечке нет аналогов: ChatGPT будто бы напрямую отправлял пользовательские запросы в Google Search, а затем те каким-то образом оказывались в отчётах GSC. Эксперты уверены, что речь идёт о «первом доказательстве того, что OpenAI действительно обращается к поиску Google с реальными пользовательскими промптами».

OpenAI комментировать гипотезу напрямую отказалась, но подтвердила, что «осведомлена о проблеме» и уже исправила ошибку, которая якобы «затронула небольшое количество поисковых запросов».

Пакер, впрочем, не убеждён, что всё так просто. Он считает, что компания не дала прямого ответа на главный вопрос — действительно ли OpenAI сканировала Google и передавала туда пользовательские промпты. Google ситуацию не прокомментировала.

Первые утёкшие фразы Пакер заметил ещё в сентябре. Среди них — поток сознания от девушки, пытавшейся понять, нравится ли она парню, и деловое сообщение офис-менеджера, обсуждающего возвращение сотрудников в офис. Всего Пакер насчитал около двухсот подобных записей только на одном сайте.

Дальнейшее расследование показало, что все эти запросы начинались с одинакового URL:
https://openai.com/index/chatgpt/

Google, как предполагают исследователи, разделил адрес на отдельные слова — openai, index, chatgpt — и начал воспринимать их как поисковый запрос. Из-за этого сайты, которые хорошо ранжировались по этим словам, начали видеть в своей консоли чужие фразы пользователей ChatGPT.

Пакер и Манич полагают, что причиной стала ошибка в одном из интерфейсов ChatGPT. При вводе запроса на странице с параметром hints=search модель почти всегда выполняла реальный поиск в интернете — и использовала при этом Google. Из-за сбоя ChatGPT добавлял к поисковому запросу часть адреса страницы и передавал всё это в Google как обычный поисковый запрос.

Поскольку запросы не шли через API, а именно через открытый поиск, они начали появляться в отчётах Search Console у тех сайтов, которые Google выбрал в результатах.

Пакер считает, что так утекали все промпты, где ChatGPT принимал решение искать сделать поиск в Google. OpenAI заявила, что инцидент затронул «небольшое количество запросов», но не уточнила, сколько именно пользователей могли пострадать.

Ранее уже была похожая история, когда пользовательские чаты ChatGPT попадали в индекс Google. Тогда OpenAI объяснила, что пользователи сами «неосознанно» сделали их публичными, поставив соответствующую галочку.

В этот раз, подчёркивает Пакер, всё гораздо хуже: никто ничего не публиковал добровольно. Пользователи просто писали запросы — и часть этих сообщений могла оказаться в инструментах аналитики чужих сайтов.

Эксперты называют ситуацию «менее опасной, но куда более странной». И хотя OpenAI утверждает, что проблема уже устранена, Пакер и Манич уверены: вопросов всё ещё больше, чем ответов.

Главный из них — перестала ли OpenAI вообще использовать Google Search для сбора данных, или просто изменила способ отправки запросов. Пока компания этого не уточнила.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru