ИИ помогает фишерам: компрометация данных — за 40 секунд

ИИ помогает фишерам: компрометация данных — за 40 секунд

ИИ помогает фишерам: компрометация данных — за 40 секунд

На компрометацию пользовательских данных при фишинговой атаке у злоумышленников уходит всего около 40 секунд. Таковы данные за первый квартал 2025 года.

Основная причина такой скорости — автоматизация. Мошенники всё чаще используют технологии на базе искусственного интеллекта: AI помогает подделывать письма максимально достоверно, быстро запускать рассылки и собирать данные с сайтов.

Для сравнения: год назад, в первом квартале 2024-го, на компрометацию данных уходило около 50 секунд. Тогда пользователи тратили примерно 30 секунд на клик по ссылке и ещё 20 — на ввод логина и пароля.

Сейчас время на ввод осталось тем же, а вот переходят по ссылке на 10 секунд быстрее — письма стали убедительнее.

Мошенники грамотно мимикрируют под известные компании: копируют фирменный стиль, логотипы, дизайн. Адрес отправителя тоже всё чаще выглядит настоящим.

Чаще всего в фишинговых письмах злоумышленники прикрываются финансовыми организациями — это 63% всех атак. Далее идут «госорганы» (13%), медучреждения (12%) и вузы (9%).

Почему это работает? Потому что это те самые организации, с которыми люди сталкиваются каждый день. И письмо от «банка» или «налоговой» вызывает меньше подозрений, особенно если оно срочное и оформлено «по всем правилам».

Вот простые советы:

  • Не переходите по ссылкам из сомнительных писем.
  • Получили письмо от известной организации — перезвоните или напишите им напрямую, уточните, отправляли ли они его.
  • Никогда не сообщайте коды из СМС и включите двухфакторную аутентификацию.

Будьте осторожны — 40 секунд могут стоить дорого.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ShadowLeak: эксперты нашли способ красть данные через серверы ChatGPT

Специалисты компании Radware рассказали о необычной атаке на ChatGPT, которую они назвали ShadowLeak. В отличие от привычных схем с обманом пользователей, здесь ничего делать не нужно: злоумышленнику достаточно отправить жертве «правильное» письмо.

Атака была нацелена на функцию Deep Research — она предназначена для многошаговых исследований и может сама обрабатывать письма или документы.

Вредоносное письмо выглядит безобидно, но внутри спрятаны инструкции. Когда ChatGPT начинает, например, пересказывать письма из почтового ящика, агент «включает» скрытые команды и пересылает данные на сайт злоумышленника.

Главное отличие от похожих атак — всё происходит на стороне серверов OpenAI, а не на устройстве пользователя. То есть утечка идёт напрямую из облака, а в клиенте никаких следов не остаётся.

Radware показала, что таким способом можно вытягивать данные не только из Gmail, но и из Google Drive, Outlook, Dropbox, Microsoft Teams, GitHub и других сервисов, которые могут быть связаны с ChatGPT.

 

Авторы атаки позаботились о деталях: «убеждали» бота, что у него есть все права, внушали срочность, предлагали несколько попыток и даже объясняли, что «данные и так публичные».

Radware сообщила об уязвимости 18 июня, и в начале августа OpenAI её закрыла. Сейчас ShadowLeak уже не работает. Но исследователи считают, что подобных «дыр» ещё много, и советуют компаниям внимательно следить за действиями ИИ-агентов и сверять их с реальными задачами пользователя.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru