57% компаний готовы доверить ИБ искусственному интеллекту, опрос на AM Live

57% компаний готовы доверить ИБ искусственному интеллекту, опрос на AM Live

57% компаний готовы доверить ИБ искусственному интеллекту, опрос на AM Live

Почти две трети компаний готовы доверить свои системы информационной безопасности искусственному интеллекту, но при одном условии: за ним должен присматривать человек. Такие результаты показал опрос, проведённый среди зрителей и участников эфира AM Live «Машинное обучение и ИИ в кибербезопасности».

Тема встречи — растущая роль ИИ в ИБ и его двойственная природа. С одной стороны, технологии помогают автоматизировать анализ инцидентов, выявлять фишинг и обрабатывать огромные массивы данных.

С другой — злоумышленники тоже активно осваивают ИИ. По данным опроса, почти 40% компаний уже сталкивались с атаками, усиленными ИИ-инструментами.

Несмотря на это, отношение к технологии остаётся в целом позитивным. 57% респондентов заявили, что готовы внедрять ИИ в свои ИБ-системы при условии человеческого контроля. Ещё около трети готовы передать алгоритмам низкоуровневые задачи полностью или использовать их на более высоком уровне, но с обязательной валидацией решений.

Категорически против использования ИИ в информационной безопасности выступили лишь 7% участников опроса. При этом 25% не применяют его для автоматизации, но используют как вспомогательный инструмент — например, для анализа или консультаций.

Как отметил руководитель группы исследования технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов, многое зависит от масштаба задач. По его словам, компания в среднем отслеживает до 500 тысяч инцидентов в день, и вручную обработать такой объём невозможно. Здесь автоматизация, в том числе с применением ИИ, становится необходимостью. Однако рискованные сценарии пока рано полностью отдавать на откуп моделям — их разумнее использовать как советников.

Ведущий эксперт по безопасности разработки и ИИ компании К2 Кибербезопасность Александр Лысенко добавил, что доверие к ИИ заметно выросло буквально за последние месяцы. По его ощущениям, сегодня рынок готов делегировать алгоритмам некритичные процессы, а более серьёзные — при участии человека. Ещё полгода назад картина была бы менее оптимистичной.

Впрочем, не все разделяют такой энтузиазм. Руководитель продуктового направления «ИнфоТеКС» Светлана Старовойт считает, что сейчас рынок может находиться на пике доверия к ИИ. По её мнению, по мере накопления неудачных кейсов и ошибочных бизнес-решений на основе рекомендаций моделей возможен откат и более трезвая оценка возможностей технологии.

Участники эфира сошлись в одном: говорить о будущем ИИ в кибербезопасности пока рано. Технология развивается слишком быстро, и сложно предсказать, как именно она будет использоваться через пять или десять лет. Но уже сейчас очевидно, что искусственный интеллект становится заметным участником рынка ИБ и доверие к нему постепенно растёт.

В России хотят поставить на учет учебные материалы для ИИ-моделей

Минцифры РФ готовит законопроект, обязывающий разработчиков раскрывать сведения о наборах данных, используемых для обучения ИИ-моделей. Инициатива пока обсуждается в профильных ведомствах и сообществах игроков рынка.

Как выяснили «Ведомости», создатели подобных решений должны будут указывать наименование набора для тренинга, дату его создания, формат, объем и происхождение. В перспективе возможно создание специализированного реестра для ИИ.

Предложение выдвинуто в рамках работы правительства над регулированием сферы ИИ. Пока лишь известно, что разрабатываемый закон определит критерии российского происхождения нейросетей, закрепит право на авторство, обязанности и ответственность разработчиков, а также введет маркировку ИИ-контента.

Параллельно российские власти работают над мерами противодействия использованию ИИ в противоправных целях. Предложено даже признать применение ИИ отягчающим обстоятельством при совершении преступлений.

Предложение Минцифры о раскрытии источников обучающих данных для больших языковых моделей пока не принято на рассмотрение. Опрошенные новостным изданием эксперты сомневаются, что иностранные вендоры вроде OpenAI, Microsoft, Google, Perplexity будут соблюдать это требование.

По идее, новая инициатива должна повысить доверие к ИИ, возможность независимой оценки качества таких решений и дисциплины работы с данными. В то же время нововведение, скорее всего, потребует создания специального реестра, который будет заполняться формально из-за увеличения нагрузки на разработчиков, заинтересованных в скорейшем выводе ИИ-решений на рынок.

В то же время эксперты отметили, что в условиях дефицита качественных и юридически чистых наборов данных для обучения ИИ раскрытие их происхождения будет способствовать формированию нового коммерческого рынка.

Использование данных, взятых из открытых источников и без ведома владельцев создает риски утечки конфиденциальной информации и порождает конфликт интересов в случаях нарушения авторских прав. Подобные ситуации вынуждают создателей ИИ-моделей более внимательно относиться к подбору учебных данных и в случае необходимости покупать права на контент либо заключать договоры на использование.

В настоящее время закона, регулирующего сферу ИИ, в России нет; в законодательстве даже отсутствуют нужные определения. Освоение таких технологий пока осуществляется в соответствии с утвержденной указом Президента стратегией развития ИИ до 2030 года.

По этой причине попытки госрегулирования пока носят декларативный или рекомендательный характер. Так, в конце прошлого года было выдвинуто предложение о создании технических стандартов по ИИ и продвижение их на международном уровне.

Минцифры также определилось с требованиями к ПАК для ИИ и собирается создать киберполигон для проверки безопасности ИИ-систем, предназначенных для использования на критически важных объектах.

RSS: Новости на портале Anti-Malware.ru