Фейковые сайты под Poizon обманывают покупателей в России

Фейковые сайты под Poizon обманывают покупателей в России

Фейковые сайты под Poizon обманывают покупателей в России

Китайский маркетплейс Poizon официально вышел на российский рынок, и этим тут же воспользовались мошенники. В июне специалисты BI.ZONE зафиксировали появление более 20 фейковых сайтов, которые внешне копируют оригинал.

Схема старая: пользователь заходит на такой сайт, делает заказ, оплачивает покупку — и остаётся ни с чем. Товар не приходит, деньги пропадают.

Иногда злоумышленники действуют хитрее. Сначала они размещают товар на настоящем маркетплейсе. Человек оформляет заказ, получает уведомление об отмене, а на следующий день — «извинения» по почте и ссылку на якобы «выгодную покупку» на другом сайте. Эта ссылка ведёт на фишинговую страницу, где у жертвы уже крадут деньги или данные.

BI.ZONE советует быть внимательными:

  • проверяйте адрес сайта — у фейков часто бывают странные домены, лишние символы или ошибки;
  • не переходите по ссылкам из писем или мессенджеров, особенно если вас уговаривают купить что-то срочно и «со скидкой»;
  • смотрите, есть ли у продавца отзывы и как давно он зарегистрирован.

По словам BI.ZONE, мошенничество с маркетплейсами и досками объявлений входит в топ-3 самых распространённых схем. Только за 2024 год эксперты обнаружили более 20 тысяч подобных случаев.

Ажиотаж вокруг Poizon вполне понятен — в прошлом году он стал лидером среди зарубежных площадок по числу заказов из России. Но на фоне этого интереса не стоит терять бдительность — мошенники не дремлют.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Первый иск к OpenAI: родители винят ChatGPT в трагедии подростка

В США подан первый иск против OpenAI, качающийся суицида несовершеннолетнего. Родители 16-летнего Адама Рейна утверждают, что их сын на протяжении нескольких месяцев обсуждал с ChatGPT свои планы покончить с собой, а затем свёл счёты с жизнью.

Обычно потребительские чат-боты с ИИ оснащены защитными механизмами: если пользователь говорит о намерении причинить себе вред, система должна предлагать помощь или контакты горячих линий.

В случае Адама как пишет The New York Times, это действительно происходило — однако подростку удалось обойти защиту, объяснив, что информация о методах суицида нужна ему для «фиктивного рассказа».

OpenAI в блоге признала уязвимость подхода: модели лучше справляются с короткими диалогами, а в длинных переписках часть «обучения на безопасности» постепенно теряет эффективность. Компания утверждает, что продолжает совершенствовать свои продукты, чтобы надёжнее реагировать на чувствительные темы.

Проблема, впрочем, не ограничивается одной корпорацией. Подобный иск подан и против Character.AI, а случаи, когда ИИ-чат-боты оказывались вовлечены в трагедии или вызывали у пользователей иллюзии и навязчивые идеи, фиксировались и раньше.

История Адама стала первым судебным прецедентом против OpenAI и, вероятно, откроет новую главу дискуссии о том, где проходит граница ответственности разработчиков ИИ за последствия общения их систем с людьми.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru