Мошенники устроили лотерею от имени АвтоВАЗа

Мошенники устроили лотерею от имени АвтоВАЗа

Мошенники устроили лотерею от имени АвтоВАЗа

Исследователи из BI.ZONE обнаружили 188 поддельных сайтов «АвтоВАЗа», призывающих принять участие в розыгрыше автомобиля «Лада». Визитеру сообщают, что он стал победителем, и перенаправляют на страницы с сомнительным контентом.

О новой фальшивой лотерее рассказал «РИА Новости» директор блока экспертных сервисов BI.ZONE Евгений Волошин. По его словам, схема мошенничества в данном случае проста: посетителю фейкового сайта предлагают выбрать подарочную коробку с заветным призом, потом выводят страницу с поздравлением и обещают доставить выигрыш в течение пяти-семи дней.

Сбор персональных данных при этом не производится, но после «завершения регистрации» пользователя отправляют в поход по другим мошенническим сайтам, которые могут оказаться вредоносными. Некоторые клоны «АвтоВАЗа» также предлагают растиражировать информацию о лотерее в WhatsApp.

Чтобы не стать жертвой мошенников, эксперты рекомендуют всегда проверять сообщение о розыгрыше на официальном сайте компании, от имени которой он проводится. Если информация о проведении лотереи оказалась ложной, держателя бренда стоит уведомить о злоупотреблении. Также следует помнить, что мошенники могут продвигать свои фальшивки через контекстную рекламу или спонсорские ссылки в результатах поисковой выдачи.

Фальшивые розыгрыши — давняя приманка мошенников, которая до сих пор пользуется у них популярностью. По данным «Столото», в лотереях участвует в среднем каждый третий россиянин; рост активности граждан в этой сфере открывает широкие возможности для злоумышленников.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru