Спрос на услуги по безопасности генеративного ИИ активно растет

Спрос на услуги по безопасности генеративного ИИ активно растет

Спрос на услуги по безопасности генеративного ИИ активно растет

По данным Swordfish Security, за услугами по безопасности больших языковых моделей (LLM Security) в 2024 году обращались 35% заказчиков. Спрос на такие услуги растет прямо пропорционально внедрению подобных инструментов в бизнес-практику.

В 2025 году такая практика будет только расширяться, поскольку генеративный интеллект, прежде всего, большие языковые модели, будут внедряться все более активно. В будущем году уровень проникновения генеративного ИИ составит не менее 40%, а к 2030 году может достигнуть и 90%.

Как отметил директор по развитию бизнеса ГК Swordfish Security Андрей Иванов, рост интереса к безопасности больших языковых моделей стал одной из главных тенденций 2024 года. Недооценка таких рисков чревата серьезными проблемами. Среди таких рисков Андрей Иванов инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками.

«В бизнесе используют большие модели для распознавания текста, анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов и многого другого. Многие отрасли, та же ИТ, активно используют ИИ-помощников. Например, в DevSecOps мы обучили и применяем модель, которая может анализировать и приоритизировать большой объем уязвимостей кода, таким образом освобождая время для квалифицированных инженеров для других, более сложных и творческих задач, — комментирует Андрей Иванов. — Критичным может оказаться, например, некорректная работа виртуальных ассистентов, которые могут влиять на клиентские решения, аналитику, дающую ошибочную информацию в цепочке поставок. Существуют атаки, отравляющие данные или позволяющие получить конфиденциальную информацию, и так далее. К этому стоит относиться как к любой информационной системе, влияющей на бизнес-процесс и проводящей, в случае компрометации, к потерям репутации и убыткам».

Внедрение ИИ требует корректировки корпоративных политик ИБ. Важно делать акцент на безопасности, а разрабатывать модели необходимо в соответствие с практиками разработки безопасного ПО, анализируя исходный код и зависимости, ответственно относиться к контролю доступа к источникам данных и стараться использовать доверенные алгоритмы обучения, уверен Андрей Иванов. Также важно учитывать то, что многие большие языковые модели используют облачную архитектуру, а это создает угрозу утечки конфиденциальных данных.

В WhatsApp появится приватный режим для разговоров с ИИ

Meta (признана экстремисткой и запрещена в России) добавит в WhatsApp возможность запускать приватные разговоры с чат-ботом Meta AI. Компания обещает, что такие сессии не будут сохраняться, а сообщения исчезнут после закрытия чата.

Новый режим можно будет включить через отдельную иконку в личном чате с Meta AI. Позже он появится и в самостоятельном приложении Meta AI. Развёртывание функции в WhatsApp и Meta AI App займёт несколько месяцев.

В Meta объясняют, что пользователи всё чаще обращаются к ИИ с личными вопросами — от финансов и здоровья до советов по сложным перепискам с друзьями или коллегами. Поэтому компания хочет дать возможность задавать такие вопросы более приватно.

Инкогнито-сессия будет завершаться, если пользователь закроет чат, заблокирует телефон или выйдет из приложения. После этого Meta AI потеряет контекст разговора и не сможет продолжить беседу с учётом предыдущих сообщений.

Для работы таких чатов Meta использует инфраструктуру private processing. Корпорация рассказывала о ней в прошлом году: она нужна для запуска ИИ-функций в WhatsApp без нарушения сквозного шифрования. На этой архитектуре уже работают, например, ИИ-сводки сообщений.

По словам Meta, новый режим использует модель Muse Spark, представленную в прошлом месяце. Ранее для некоторых ИИ-функций в WhatsApp применялись более компактные модели.

Компания также готовит ещё одну функцию — Side Chat. Она позволит обращаться к Meta AI прямо внутри обычных переписок, но так, чтобы другие участники чата не видели запрос и ответ. Сейчас для общения с ИИ в групповом или личном чате нужно явно упоминать ассистента, и ответ видят все участники.

Meta выходит с приватными ИИ-чатами на рынок, где похожие режимы уже есть у ChatGPT и Claude. Кроме того, свои приватные чат-боты развивают DuckDuckGo и Proton.

Тема приватности ИИ-переписок становится всё важнее: пользователи всё чаще обсуждают с чат-ботами чувствительные темы, а юристы уже предупреждают, что такие диалоги в отдельных случаях могут всплывать в судебных разбирательствах.

RSS: Новости на портале Anti-Malware.ru