Хакеры взломали бизнес-журнал Fast Company паролем pizza123

Хакеры взломали бизнес-журнал Fast Company паролем pizza123

Хакеры взломали бизнес-журнал Fast Company паролем pizza123

Стало известно, как киберпреступникам удалось проникнуть в админку журнала Fast Company и разослать подписчикам оскорбительные уведомления. У десятков аккаунтов издания был один и тот же пароль.

Сотрудники бизнес-журнала Fast Company, видимо, настолько любят пиццу, что не стали менять default пароль “pizza123” в своих учетных записях. О деталях недавнего громкого взлома пишет BleepingComputer. Преступники сами опубликовали “сценарий” на сайте Fast Company перед тем, как компания опомнилась и закрыла страницу.

Инцидент произошел в конце сентября. На подписчиков канала Fast Company в Apple News вместо новостей о технологиях, бизнесе и дизайне посыпались оскорбления. Страницу издания взломали, а хакеры получили доступ к конфиденциальной информации, включая ключи Apple News API и токены Amazon Simple Email Service (SES). Теперь они могли отправлять электронные письма с любого адреса электронной почты @fastocompany.com.

 

Точное число подписчиков, получивших непристойные уведомления, не называется. Известно, что в начале года агрегатор новостей Apple Inc. делал рассылку 1,8 миллиарду пользователей.

Шокированные подписчики выкладывали скриншоты в Twitter, а руководство Fast Company срочно искало рубильник, чтобы остановить рассылку.

“Сообщения отвратительны и не соответствуют политике Fast Company”, — заявили тогда представители компании. — На время выяснения случившегося сайт будет недоступен”.

По итогам расследования выявили виновника — слабый пароль “pizza123”, который был установлен по умолчанию во всех учетках сотрудников, никогда не менялся и передавался из рук в руки.

“Fast Company сожалеет, что такие отвратительные слова появились на наших платформах и в Apple News. Мы приносим извинения всем, кто видел это”, — только и оставалась сказать издателям.

Инфантильное отношение к паролям становится причиной взломов в 81% кибератак по всему миру. Мы писали недавно о результатах проверки админ-паролей для удаленного доступа к системам по RDP или SSH. Анализ показал, что в 99,997% случаев ключ можно получить перебором по словарю.

Новый вектор ProAttack позволяет незаметно внедрять бэкдоры в LLM

Промпт-инжиниринг давно стал нормой при работе с большими языковыми моделями. Но, как выясняется, вместе с удобством он приносит и новую поверхность атаки. Исследователи представили вектор под названием ProAttack, который позволяет внедрять бэкдор в модель через промпты, причём делать это почти незаметно.

В тестах атака показывала эффективность, близкую к 100%, причём без классических красных флагов вроде странных токенов или подмены меток.

В обычных атаках на NLP-модели злоумышленники добавляют в данные подозрительные слова или фразы и меняют метки. Такие вещи уже научились отслеживать. 

ProAttack идёт другим путём. Вместо явных «триггеров» он использует разные промпты для обучающих данных:

  • для части данных (целевая категория) — вредоносный промпт;
  • для остальных — обычный, чистый.

 

При этом сами тексты выглядят нормально, а метки остаются корректными. В итоге модель учится ассоциировать конкретный промпт с нужным злоумышленнику результатом.

А дальше всё просто: на этапе использования достаточно подать вход с этим промптом, и бэкдор срабатывает.

Особенно опасно, что атака остаётся эффективной даже при небольшом количестве данных. В ряде случаев хватало буквально нескольких (около шести) «отравленных» примеров, чтобы внедрить бэкдор.

Метод протестировали на разных задачах, включая даже медицинские сценарии (например, суммаризацию радиологических отчётов). И там он тоже показал высокую эффективность, практически не ухудшая качество работы модели.

Исследователи проверили ProAttack против популярных методов защиты — ONION, SCPD, back-translation и fine-pruning. Ни один из них не смог полностью остановить атаку.

В качестве возможного решения предлагается использовать LoRA (parameter-efficient fine-tuning). Идея в том, что такие методы ограничивают количество параметров, которые модель может менять при дообучении. А значит, ей сложнее запомнить связь между триггером и целевым результатом.

RSS: Новости на портале Anti-Malware.ru