Гибридные технологии в борьбе с кризисом

Гибридные технологии в борьбе с кризисом

...

2 июня в Москве прошел круглый стол на тему «Системы защиты конфиденциальной информации в условиях кризиса. Анализ и прогнозы». Офицеры информационной безопасности крупнейших российских компаний поделились опытом работы в условиях кризиса и рассказали о том, как кризис повлиял на лояльность персонала и положение с утечками конфиденциальной информации, какие средства защиты оптимальны в данной ситуации, какие новые каналы утечки данных появляются с развитием информационных технологий и как эти каналы защищать.

Организатором мероприятия выступил экспертный совет DLP-Эксперт при поддержке компании InfoWatch. В круглом столе приняли участие руководители подразделений информационной безопасности таких крупнейших российских компаний, как «Газпром Трансгаз Москва», «Вымпелком», «Мегафон», «РосЕвроБанк», «Cisco Systems» и др.

На заседании были представлены результаты исследования мировых тенденций на рынке систем защиты от утечек конфиденциальной информации (DLP систем), проведенного по заказу DLP-Эксперт аналитическим центром компании InfoWatch. Эксперты пришли к выводу, что кризисная ситуация на мировом финансовом рынке привела к повышению требований к информационной безопасности предприятий в целом и применяемым техническим средствам защиты информации в частности. В связи с этим эксперты прогнозируют развитие «гибридных» систем защиты, которые вероятнее всего будут объединять в одном решении наиболее эффективные технологии борьбы с утечками данных – таких, например, как, цифровые отпечатки, лингвистический и контентный анализ. Пока решений способных предложить такой уровень защиты на рынке нет.

На круглом столе был затронут важный вопрос дальнейшего повышения эффективности систем защиты конфиденциальной информации от утечки. Как отметил один из представителей компании телекоммуникационного сектора, критерии оценки DLP систем могут быть разные, это, например и скорость обработки информации, и качество обработки (например, возможность оффлайн и онлайн мониторинга), и многие другие факторы. Однако необходимо помнить, что за любой утечкой данных или атакой извне стоят люди, поэтому для еще более эффективной борьбы с этой проблемой нужен комплекс организационных и технических мер!

От представителей СМИ прозвучал один из наиболее актуальных сегодня в ИБ вопросов – могут ли DLP системы защитить от утечки персональных данных? Тема стоит остро в связи с обязательностью исполнения компаниями с января 2010 года требований закона «О персональных данных». Эксперты отметили, что DLP системы, будучи частью комплекса мер по обеспечению информационной безопасности, являются одним из наиболее эффективных средств борьбы с утечками конфиденциальной информации, про которое, однако, ничего не сказано в законе. По признанию участников встречи, использование систем защиты от утечек информации вкупе с грамотным выстраиванием политик безопасности предприятия помогут компаниям решить эту проблему. В финале мероприятия члены экспертного совета DLP-эксперт приняли решение подготовить отдельное исследование по защите персональных данных с помощью DLP-технологий.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В ChatGPT нашли семь уязвимостей, сливающих данные пользователей

Исследователи из компании Tenable сообщили о серии уязвимостей, затрагивающих модели GPT-4o и GPT-5, которые лежат в основе ChatGPT. Эти дыры позволяют злоумышленникам похищать личные данные пользователей из памяти и истории переписки бота — без ведома самих пользователей.

Всего специалисты выявили семь векторов атак, часть из которых OpenAI уже устранила. Главная проблема — так называемые «непрямые инъекции промпта» (indirect prompt injection).

С их помощью можно обмануть искусственный интеллект и заставить его выполнять вредоносные инструкции, даже если пользователь ничего не подозревает.

Среди найденных методов — внедрение команд через вредоносные сайты, запросы к ChatGPT с поддельными ссылками или командами, маскированными под разрешённые домены (например, через bing.com), а также скрытие вредоносных инструкций в коде веб-страниц. В одном из сценариев атаки злоумышленник мог «отравить» память ChatGPT, добавив туда свои команды через сайт, который пользователь попросил бота кратко пересказать.

Подобные инъекции не требуют от пользователя кликов или загрузки файлов — достаточно обычного запроса вроде «расскажи, что написано на этом сайте». Если страница уже проиндексирована поисковиком, ИИ мог выполнить вредоносный код автоматически.

 

Tenable отмечает, что такие атаки — проблема не только OpenAI. За последние месяцы исследователи обнаруживали похожие уязвимости в Claude, Copilot, и других ИИ-инструментах. Некоторые позволяли похищать данные, обходить фильтры безопасности или подменять ответы модели.

По словам экспертов, полностью устранить угрозу инъекций промпта в ближайшее время вряд ли удастся. Они рекомендуют разработчикам ИИ-сервисов тщательнее проверять механизмы безопасности и фильтры URL, чтобы свести риски к минимуму.

Не так давно мы рассуждали на тему «можно ли доверять GenAI». Рассматривали галлюцинации и контроль достоверности ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru