В России может появиться программа защиты КИИ от нейросетевых кибератак

В России может появиться программа защиты КИИ от нейросетевых кибератак

В России может появиться программа защиты КИИ от нейросетевых кибератак

Ученые просят власти ввести обязательную маркировку контента, создаваемого нейросетями. Более того, необходима программа защиты критически важной инфраструктуры от кибератак с использованием таких систем, считают эксперты.

С предложением поставить на нейросети “водный знак” выступил Российский технологический университет (РТУ МИРЭА). Об этом говорится в письме ректора ВУЗа Станислава Куджа главе Минцифры Максуту Шадаеву.

“РТУ МИРЭА предлагает <...> закрепить обязательную маркировку контента, созданного с помощью технологии "нейросети", специальным графическим знаком в рамках федерального проекта "Искусственный интеллект" национальной программы "Цифровая экономика" и предусмотреть разработку соответствующего постановления правительства Российской Федерации”, — приводит выдержки из документа ТАСС.

Преподаватели технического университета также считают необходимым подготовить и утвердить программу защиты критически важной инфраструктуры от возможных кибератак с использованием нейросетей.

Беспокойство российских ученых вызывает и возможное использование утечек в связке с нейросетью.

Отдельным пунктом в приказ Минцифры "Об определении угроз безопасности персональных данных" они предлагают внести:

угрозы несанкционированного доступа к персональным данным людей без соответствующих полномочий в информационных системах и дальнейшего их использования с применением нейросетей.

Помимо этого, РТУ МИРЭА предлагает включить модуль "Противодействие неправомерному использованию нейросетей" в спецпроект Министерства цифрового развития, связи и массовых коммуникаций РФ "КиберЗОЖ" федерального проекта "Информационная безопасность".

Опасения ученых основываются на опросе экспертов, уточняется в письме ректора.

На первое место рейтинга опасностей нейросетей респонденты поставили возможный рост киберпреступности.

Повсеместное использование нейросетей даже в развлекательных целях несет опасность для сохранности персональных данных пользователей, отмечается в документе. Кроме того, совершенствование технологии нейросетей уже может серьезно сократить количество вакансий для людей в некоторых специальностях.

"Очевидно, что без введения дополнительных мер контроля за развитием искусственного интеллекта нейросети уже в ближайшие несколько лет смогут гораздо эффективнее, чем люди, взламывать защиту компьютерных программ, в том числе в критически важных для экономики сферах", — заявляют российские ученые. 

Минцифры письмо пока не комментировало.

Добавим, быстрый взлет нейросетей беспокоит не только отечественных исследователей, но и всё мировое сообщество. Открытое письмо об опасностях стремительного развития ИИ-технологий в марте подписали Илон Маск, Стив Возняк и ещё порядка 1300 учёных и предпринимателей со всего мира. На Anti-Malware.ru также вышел большой материал “Не шути с ChatGPT” о том, как ажиотажная нейросеть может изменить весь инфобез.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI будет передавать опасные чаты правоохранительным органам

Истории о том, как диалоги с чат-ботами заканчиваются психозами, госпитализацией или даже суицидом, уже больше года появляются в СМИ и соцсетях. На этом фоне OpenAI долгое время ограничивалась лишь общими обещаниями «улучшить защиту».

Теперь ситуация изменилась: в блоге OpenAI признала свои недоработки и сообщила, что начала сканировать пользовательские чаты на предмет опасного контента.

Если алгоритм «чует неладное», диалог попадает к небольшой команде сотрудников. А в случаях, когда модераторы видят «угрозу серьёзного физического вреда другим людям», компания может передать информацию в правоохранительные органы.

Интересный момент: о самоубийствах пока в полицию не сообщают — OpenAI объясняет это уважением к приватности и «уникально личному характеру общения с ChatGPT». Но компания открыто признаёт: да, мы читаем подозрительные чаты, а иногда делимся ими с властями.

Это, мягко говоря, выглядит противоречиво. С одной стороны, OpenAI отклоняет запросы издателей (включая New York Times), которые требуют доступ к логам переписок ради судебных разбирательств — и делает это под лозунгом защиты приватности пользователей. С другой — сама же может передавать чаты полиции.

Добавим к этому, что ещё недавно CEO Сэм Альтман честно говорил: разговор с ChatGPT как с психотерапевтом или юристом не равноценен конфиденциальной беседе с реальным специалистом. И если суды обяжут, то переписка пользователей вполне может оказаться в материалах дела.

В итоге получается странная картина: OpenAI вроде бы пытается закрыть дыры и снизить риски трагедий, но делает это так, что доверия к сервису у людей становится ещё меньше.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru