Опубликована утилита для исследования информации внутри двоичных файлов

Опубликована утилита для исследования информации внутри двоичных файлов

Опубликована утилита для исследования информации внутри двоичных файлов

Пользователь GitHub под именем agustingianni опубликовал небольшую утилиту symrepl, предназначенную для исследования информации внутри двоичных файлов. Для доступа к символьной информации внутри двоичного файла symrepl использует lldb, высокопроизводительный отладчик.

Как утверждает опубликовавший инструмент специалист, утилиту symrepl могут использовать исследователи, ищущие уязвимости.

Эксперт также опубликовал видео, где на примере демонстрируется загрузка двоичного файла XUL, а также использование symrepl для проверки внутренних элементов.

Инструмент работает только на macOS и Linux. Для его работы в macOS потребуется XCode, а в Linux lldb и llvm-config.

Установка:

  1. Установить pip, если еще не установлен: $ easy_install pip;
  2. Установить virtualenv, если еще не установлен: $ pip install virtualenv;
  3. Создать виртуальную среду python: $ virtualenv venv_symrepl;
  4. Активировать среду (POSIX): $ source ./venv_symrepl/bin/activate;
  5. Установить symrepl в виртуальную среду: $ python setup.py install.

Все требования python будут установлены автоматически с помощью setuptools. Для получения справки по работе с инструментом можно использовать команду symrepl с параметром –h.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Продажи плюшевых ИИ-мишек приостановлены из-за их сексуальных фантазий

Базирующаяся в Сингапуре компания FoloToy сняла с продажи медвежат Kumma и другие игрушки на основе ИИ после того, как исследователи выявили их склонность к вредным советам и обсуждению сексуальных пристрастий.

Вендор интеллектуальных плюшевых мишек заявил, что проводит аудит безопасности ассортимента, использующего ИИ-технологии.

Набивной плюшевый мишка с интегрированным чат-ботом на основе GPT-4o производства OpenAI продавался по цене $99 и позиционировался как дружелюбный и знающий собеседник, которого оценят и любознательные дети, и их родители.

Как выяснилось, вооруженная ИИ приятная игрушка использует его без должных ограничений. Тестирование показало, что Kumma с готовностью выдают потенциально опасный контент — сведения о нетрадиционном сексе с наглядной графикой, а также советы о том, как зажигать спички и где отыскать в доме ножи.

Получив соответствующее уведомление, OpenAI заблокировала разработчика детских игрушек за нарушение ее политик. Вместе с тем исследователи с сожалением отмечают, что это не единичный случай: производство ИИ-игрушек пока никак не регулируется, а поток их продаж растет.

Удаление одного потенциально опасного продукта с прилавков, по мнению экспертов, не решит проблемы, пока не будет введен систематический контроль.

Стоит заметить, что детские игрушки на основе ИИ, склонного к галлюцинациям, способны нанести еще больший вред, чем некогда модные интерактивные куклы, мягкие зверики и роботы, подключенные к интернету и потому уязвимые к взлому и перехвату персональных данных.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru