Наталья Касперская: ИИ нельзя пускать в образование и госуправление

Наталья Касперская: ИИ нельзя пускать в образование и госуправление

Наталья Касперская: ИИ нельзя пускать в образование и госуправление

ИИ нельзя превращать в универсальный ответ на все вопросы — особенно там, где на кону люди, данные и здравый смысл. Об этом заявила Наталья Касперская, президент группы компаний InfoWatch и председатель правления ассоциации «Отечественный софт», в эфире радио «Комсомольская правда».

В большом разговоре она прошлась по самым болезненным темам — от импортозамещения и утечек данных до мошенников, дипфейков и рисков тотальной цифровизации.

По словам Касперской, санкционное давление продолжает усиливаться: зарубежные вендоры отказываются подписывать сертификаты, и в какой-то момент софт, работающий на иностранных операционных системах, может просто перестать функционировать.

Но катастрофы, по её мнению, нет. В реестре отечественного ПО — более 29 тысяч продуктов, а среди операционных систем уже есть проверенные варианты: Astra Linux, ALT Linux, «РЕД ОС» и ROSA, а для мобильных устройств — KasperskyOS и «Аврора». Крупные компании начали массово переходить на них после 2022 года.

Полной замены иностранного промышленного ПО пока нет, но и критической зависимости, при которой «станок нельзя перевезти», тоже уже не наблюдается.

Одна из самых тревожных тем — мошенничество. Несмотря на принятый закон о борьбе с аферистами, 2025 год снова может стать рекордным по сумме украденных средств. Причина проста: старые схемы перестают работать, зато появляются новые — сложные и многоходовые.

Сегодня мошенники активно используют:

Главное правило, которое напомнила Касперская: наши ведомства не звонят. Любой «срочный звонок от государства» — повод насторожиться.

По оценкам, за прошлый год утекло более 1,5 млрд записей персональных данных. Это значит, что информация о каждом россиянине «утекала» в среднем не один раз. И ситуация, по мнению Касперской, будет только ухудшаться.

Она резко раскритиковала идею расширения государственных регистров, в том числе регистра заболеваний, где будут фигурировать психиатрические диагнозы, беременность и онкология. Такие базы, уверена она, практически гарантированно станут добычей мошенников.

«Чем больше данных — тем больше утечек. А человеческий фактор не победить никакими техническими мерами», — подчеркнула Касперская.

Касперская призвала не демонизировать искусственный интеллект, но и не обожествлять его. По её словам, генеративный ИИ опасен там, где нужна стопроцентная точность.

Под запрет, по её мнению, должны попасть образование, госуправление и законотворчество. Причина проста: генеративный ИИ всегда выдаёт вероятностный ответ и может «галлюцинировать». В образовании это приводит к тому, что дети перестают думать, а просто копируют ответы, не понимая смысла.

Зато в технических и прикладных сферах ИИ действительно незаменим: промышленная безопасность, предотвращение аварий, мониторинг инфраструктуры, сельское хозяйство и прогнозирование.

Главный вывод Касперской звучит предельно ясно: бояться стоит не искусственного интеллекта, а людей, которые используют его во вред.

ИИ — всего лишь инструмент. И вопрос не в том, сколько процентов процессов им «оцифровать», а в том, где он действительно уместен, а где его появление может обернуться новыми рисками — для общества, безопасности и здравого смысла.

ФСТЭК России определилась со списком угроз для ИИ-систем

В банке данных угроз (БДУ), созданном ФСТЭК России, появился раздел о проблемах, специфичных для ИИ. Риски в отношении ИБ, связанные с качеством софта, ML-моделей и наборов обучающих данных, здесь не рассматриваются.

Угрозы нарушения конфиденциальности, целостности или доступности информации, обрабатываемой с помощью ИИ, разделены на две группы — реализуемые на этапе разработки / обучения и в ходе эксплуатации таких систем.

В инфраструктуре разработчика ИИ-систем оценки на предмет безопасности информации требуют следующие объекты:

 

Объекты, подлежащие проверке на безопасность в инфраструктуре оператора ИИ-системы:

 

Дополнительно и разработчикам, и операторам следует учитывать возможность утечки конфиденциальной информации, а также кражи, отказа либо нарушения функционирования ML-моделей.

Среди векторов возможных атак упомянуты эксплойт уязвимостей в шаблонах для ИИ, модификация промптов и конфигурации агентов, исчерпание лимита на обращения к ИИ-системе с целью вызвать отказ в обслуживании (DoS).

В комментарии для «Ведомостей» первый замдиректора ФСТЭК Виталий Лютиков пояснил, что составленный ими перечень угроз для ИИ ляжет в основу разрабатываемого стандарта по безопасной разработке ИИ-систем, который планировалась вынести на обсуждение до конца этого года.

Представленная в новом разделе БДУ детализация также поможет полагающимся на ИИ госструктурам и субъектам КИИ данных скорректировать процессы моделирования угроз к моменту вступления в силу приказа ФТЭК об усилении защиты данных в ГИС (№117, заработает с марта 2026 года).

Ужесточение требований регулятора в отношении безопасности вызвано ростом числа атак, в том числе на ИИ. В этих условиях важно учитывать не только возможности ИИ-технологий, но и сопряженные с ними риски.

RSS: Новости на портале Anti-Malware.ru