КИБ СёрчИнформ усилен модулем проверки подлинности изображений

КИБ СёрчИнформ усилен модулем проверки подлинности изображений

КИБ СёрчИнформ усилен модулем проверки подлинности изображений

Компания «СёрчИнформ» интегрировала технологию экспертизы цифровых изображений Oz PhotoExpert в DLP-систему «КИБ Сёрчинформ». Новый модуль ImageControl в режиме реального времени проверяет изображения на подлинность по заданным условиям и предупреждает о том, что изображение было отредактировано.

Это первое подобное решение на российском рынке средств информационной безопасности. Подделка изображений входит в число наиболее распространенных способов мошенничества – сегодня с этим справится любой пользователь с помощью самого простого редактора. В то же время распознать внесенные изменения без специальных инструментов и знаний непросто. Чтобы в потоке данных оперативно выявлять изменения цифровых изображений, специалисты «СёрчИнформ» разработали модуль ImageControl, основанный на программном комплексе Oz PhotoExpert.

Программное решение Oz PhotoExpert при проверке подлинности цифрового изображения использует девять алгоритмов. Учитываются наиболее распространенные способы мошенничества: модуль ImageControl выявляет клонирование и перенос участков изображения, вставку фрагментов других изображений, добавление и удаление деталей на изображении, создание изображения паспортов с помощью специального ПО и другие действия злоумышленников. Проверка включает также анализ метаданных и выявление несоответствий в EXIF-полях. Результаты проверки предоставляются в удобной форме – в виде графических эскизов с указанием места подделки.

Модуль ImageControl в «КИБ Сёрчинформ» выявляет факты редактирования изображений и определяет характер изменений на двух уровнях: в режиме быстрого анализа и детальной экспертизы. Преимущество решения «СёрчИнформ» – комплексный анализ изображений. В случае быстрой экспертизы изображение анализируется базовыми алгоритмами. При детальном экспертном анализе подключаются все доступные алгоритмы проверки.

«Несмотря на возросший цифровой документооборот в компаниях, на российском рынке средств информационной безопасности до сих пор не было надежного инструмента, способного «на лету» детектировать подделку изображений. Благодаря сотрудничеству с Oz PhotoExpert мы получили рабочее антифрод-решение, которое успешно интегрировали в «КИБ СёрчИнформ» и усилили таким образом защиту от мошенничества», – отметил технический директор компании «СёрчИнформ» Иван Мершков.

«Функционал OZ PhotoExpert востребован банками, страховыми компаниями и другими организациями, активно использующими и внедряющими ЭДО. Мы рады, что сотрудничество с «СёрчИнформ» сделает наши технологии доступными еще большему количеству российских компаний», – прокомментировал новость генеральный директор Oz PhotoExpert Артем Герасимов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru