Мошенники плодят клоны сайтов OpenAI и Sora 2 для кражи учетных данных

Мошенники плодят клоны сайтов OpenAI и Sora 2 для кражи учетных данных

Мошенники плодят клоны сайтов OpenAI и Sora 2 для кражи учетных данных

Эксперты Palo Alto Networks выявили новую фишинговую кампанию, нацеленную на сбор учеток пользователей продуктов OpenAI. Созданные злоумышленниками сайты-ловушки имитируют в основном недавно запущенный ИИ-сервис Sora 2.

Пользуясь тем, что новый видеогенератор доступен пока лишь в США и Канаде, мошенники переводят содержимое своих клонов на разные языки, предлагая опробовать Sora 2 в обмен на участие в онлайн-опросе, розыгрыше призов или аукционе криптовалютных токенов, приуроченном к знаменательному событию.

На настоящий момент исследователи обнаружили (.TXT) 14 поддельных доменов, зарегистрированных в рамках текущей кампании.

Одна из таких фальшивок предлагала четыре варианта подписки на Sora 2. Ее создатели мастерски скопировали дизайн официального портала OpenAI, однако подлог выдали метаданные на китайском языке.

При выборе плана подписки происходит редирект на фейковую форму входа с полями для ввода имейл и пароля.

 

Для охвата большей аудитории злоумышленники создают клоны и на других языках, в том числе на русском. Переводы при этом, по словам экспертов, выполнены безукоризненно.

 

После кражи учеток жертве могут предложить заполнить анкету, подписаться на платные услуги либо приобрести мифические токены SORA2 и $SORA2 — якобы не облагаемые налогом и с автоматической ликвидностью.

 

После запуска Sora 2 фейки объявились и в App Store. Почти все они предлагали платные подписки или покупки внутри приложения. К счастью, эти фальшивки быстро удалили с прилавка.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Челябинские ученые предложили систему защиты от сбоев промышленных систем

Чтобы защитить промышленные системы от атак и сбоев, коллектив исследователей из Южно-Уральского государственного университета (ЮУрГУ) предложил подход, основанный на принципах поведенческой аналитики. В основе решения лежит нейросеть Кохонена.

Результаты исследования российских специалистов опубликованы в сборнике International Conference on Industrial Engineering, Applications and Manufacturing (ICIEAM).

Разработанная в ЮУрГУ система работает в два этапа. Сначала она анализирует функционирование объекта в нормальном режиме и формирует эталонную модель. Затем переходит в режим мониторинга и оценивает поступающие данные, сравнивая их с полученной «нормой». При обнаружении значительных отклонений нейросеть подаёт сигнал о потенциально опасной ситуации.

Во время тестирования система правильно классифицировала 94% данных. Обучение нейросети заняло около 3,5 минут. Кроме того, решение успешно выявило действия, характерные для кибератак на промышленные объекты.

Разработчики планируют повысить точность модели и расширить её возможности для распознавания различных, в том числе сложных, сценариев атак.

«Ключевое преимущество нашего подхода — использование нейросети Кохонена, которая способна работать с большими массивами данных, когда показателей много и они тесно взаимосвязаны. Классические алгоритмы часто не справляются с такими объёмами и сложностью», — рассказал РИА Новости заведующий кафедрой «Защита информации» ЮУрГУ Александр Соколов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru