Создан эффективный стегоалгоритм для безопасной передачи данных

Создан эффективный стегоалгоритм для безопасной передачи данных

Создан эффективный стегоалгоритм для безопасной передачи данных

Команда исследователей из Оксфордского университета и Университета Карнеги – Меллона разработала алгоритм стеганографического сокрытия информации, способный обеспечить безопасность сторонам тайного обмена данными.

Тестирование показало эффективность кодирования до 40% выше в сравнении с аналогами. Достоинствами разработки также являются возможность масштабирования и широкий спектр применения.

Стеганография как способ тайнописи используется уже более 25 лет, однако существующие методы обычно не гарантируют безопасность пользователям: их выдают еле заметные изменения в дистрибуции безобидного контента.

Университетские исследователи прежде всего удостоверились в том, что стегопроцедура обеспечивает высокую безопасность лишь в том случае, когда вероятностное распределение данных в шифротексте (его можно равномерно рандомизировать) и в маскировочном контенте связаны. Как оказалось, максимально повысить эффективность такой процедуры можно, сведя к нулю взаимную энтропию.

Созданный в ходе исследования алгоритм итеративно уменьшает энтропию взаимосвязанных систем, позволяя повысить общую информативность при сохранении индивидуальных дистрибуций. Статистический стеганализ при этом разницы не выявит.

Для тестирования были выбраны разные модели автогенераторов контента: GPT-2 (синтезатор текста), WaveRNN (преобразователь текста в речь), Image Transfomer (преобразователь изображений). Новый алгоритм в целом показал намного более высокую эффективность кодирования (до 40%), чем существующие аналоги, а значит, позволяет скрыть больше информации в заданном объеме.

«Наш метод можно использовать с любым софтом, автоматически генерирующим контент, к примеру, в вероятностных видеофильтрах или генераторах мемов, — комментирует соруководитель исследования, д-р Кристиан Шрёдер де Витт (Christian Schroeder de Witt Шрёдер) из Оксфордского университета. — Это качество очень выручит журналистов и гуманитарных работников в странах, где шифрование запрещено. Однако пользователю придется принять меры предосторожности: любая технология шифрования может оказаться уязвимой к атакам по стороннему каналу, таким как обнаружение стегоприложения на телефоне пользователя».

Исследователи подали заявку на патент, но собираются также распространять разработку под свободной лицензией при условии некоммерческого и ответственного использования. Препринт отчета доступен в PDF-формате на arXiv.org, результаты исследования будут оглашены в мае на 11-й Международной конференции по представлениям обучения (ICLR 2023).

Фальшивый блокировщик рекламы для ChatGPT оказался аддоном-шпионом

OpenAI недавно начала тестировать рекламу в ChatGPT для части пользователей бесплатного тарифа, и уже появились желающие быстро заработать на новой теме. Исследователи из DomainTools обнаружили в Chrome Web Store вредоносное расширение ChatGPT Ad Blocker, которое обещало убрать рекламу из чат-бота, а на деле воровало пользовательские переписки.

OpenAI действительно в последние месяцы начала тесты рекламы в ChatGPT для части пользователей Free и Go, поэтому приманка выглядела вполне правдоподобно.

По данным DomainTools, расширение позиционировалось как «бесплатный и лёгкий» способ «убрать рекламу и оставить ИИ», но его основная задача была совсем другой.

После установки оно внедряло скрипт в страницу ChatGPT, копировало содержимое активного окна чата, сохраняло структуру переписки и большую часть текста, а затем отправляло этот дамп через жёстко прописанный Discord-вебхук в закрытый канал. Исследователи отдельно пишут, что таким образом утекали не только запросы пользователя, но и метаданные, и состояние интерфейса.

 

Аддон клонировал HTML страницы ChatGPT, убирал часть визуальных элементов вроде стилей и картинок, но оставлял текст и логику диалога. При этом редактировались только очень длинные текстовые фрагменты, а обычные промпты и ответы в большинстве случаев сохранялись целиком. DomainTools также указывает, что похищенные данные принимал Discord-бот с говорящим именем Captain Hook.

Отдельно исследователи связывают расширение с GitHub-аккаунтом krittinkalra, который, по их данным, пересекается с проектами AI4ChatCo и Writecream. На этом фоне авторы отчёта задаются вопросом: не используются ли похожие механики сбора данных и в других продуктах, связанных с этой же персоной. Прямых доказательств этого в отчёте нет, но сам сигнал имеется.

RSS: Новости на портале Anti-Malware.ru