70% бизнеса опасаются ошибок ИИ и думают о страховании рисков

70% бизнеса опасаются ошибок ИИ и думают о страховании рисков

70% бизнеса опасаются ошибок ИИ и думают о страховании рисков

Почти 70% российских предпринимателей готовы застраховать свой бизнес от проблем, которые может вызвать некорректная работа искусственного интеллекта. Такие данные приводит исследование «Совкомбанк страхования» и «Всероссийского бизнес-центра», проведённое на платформе TenChat.

Больше всего компании боятся утечек конфиденциальной информации и ударов по деловой репутации.

Возможные прямые финансовые потери беспокоят значительно меньше — на них указала лишь треть опрошенных. Для каждого четвёртого бизнесмена страховка от рисков, связанных с ИИ, стала вопросом первоочередной важности.

Исследование также показало, что искусственный интеллект активно внедряется в бизнес-процессы. Более половины компаний (54%), которые уже внедрили ИИ, используют его каждый день или хотя бы несколько раз в неделю. 31% делают это время от времени, и лишь 15% пока обходятся без нейросетей.

Чаще всего ИИ применяют для автоматизации рутинных задач (38%), в маркетинге и персонализации (35%), а также в аналитике и прогнозировании (34%). Реже — в клиентском сервисе, логистике и разработке продуктов.

По словам Станислава Ежова, директора по ИИ «Группы Астра», компании часто внедряют новые инструменты без должного контроля.

«Сегодня бизнес массово внедряет ИИ, но более половины компаний не контролируют результаты, а каждый шестой уже несёт убытки. Важно понимать: когда вы что-то внедряете, нужно сразу думать о безопасной архитектуре. Иначе можно потерять чувствительную информацию вместо того, чтобы упростить себе жизнь», — отметил он.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

NIST представил новые меры для защиты ИИ-систем

Национальный институт стандартов и технологий США (NIST) представил инициативу по усилению кибербезопасности систем искусственного интеллекта. Ведомство выпустило концептуальный документ и план действий по разработке специальных Control Overlays для стандарта NIST SP 800-53, которые будут учитывать риски именно в сфере ИИ.

Почему это важно: существующие подходы к киберзащите часто не охватывают угрозы, характерные для ИИ — такие как инъекция промпта, отравление моделей, утечки данных через интерфейсы и манипуляции решениями алгоритмов. Новые контрольные наборы должны закрыть эти пробелы.

Что входит в инициативу:

  • отдельные меры безопасности для генеративных ИИ, предиктивных систем и мультиагентных архитектур;
  • рекомендации для разработчиков — чтобы безопасность учитывалась на всех этапах жизненного цикла ИИ, а не «прикручивалась» постфактум;
  • расширение существующего стандарта SP 800-53 и дополнение к уже принятой AI Risk Management Framework (AI RMF 1.0).

Чтобы собрать обратную связь и сделать процесс максимально открытым, NIST запустил отдельный Slack-канал «#NIST-Overlays-Securing-AI», где к обсуждению приглашают исследователей, разработчиков, администраторов и специалистов по управлению рисками. Там будут публиковаться обновления, проводиться дискуссии и приниматься предложения по финальной версии.

Инициатива NIST может стать новым ориентиром не только для США, но и для глобального рынка — именно такие стандартизированные меры помогут компаниям по всему миру подходить к безопасности ИИ более системно.

Напомним, на днях NIST выпустил рекомендации по выявлению поддельных фото в документах. Документ под названием FATE MORPH 4B (PDF) описывает, как работают видоизменённые изображения, и объясняет, какие шаги должны предпринимать организации — от паспортных столов до пограничных служб.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru