Дональд Трамп отменил директиву по безопасности ИИ прежней администрации

Дональд Трамп отменил директиву по безопасности ИИ прежней администрации

Дональд Трамп отменил директиву по безопасности ИИ прежней администрации

Президент США Дональд Трамп отменил указ Джо Байдена от октября 2023 года, обязывающий разработчиков продвинутых систем искусственного интеллекта (ИИ) делиться с правительством результатами тестирования на безопасность и защиту технологий.

Этот указ акцентировал внимание на применении ИИ в экономике, общественной безопасности и здравоохранении, а также предусматривал разработку стандартов для снижения рисков в химической, биологической, ядерной и кибербезопасности, связанных с генеративным ИИ.

Инцидент в Лас-Вегасе 1 января 2025 года, когда злоумышленник взорвал электромобиль, пользуясь подсказками генеративного ИИ, продемонстрировал, что преступные группы начали активно осваивать эту технологию. Эксперты прогнозируют, что число подобных преступлений может значительно вырасти в ближайшие месяцы.

Кроме того, указ Байдена включал меры по борьбе с дипфейками и предписывал облачным провайдерам уведомлять власти о зарубежных клиентах. Однако эти инициативы вызвали резкую критику со стороны Республиканской партии, отмечает Reuters.

В партийной платформе 2024 года эти меры были названы «тормозом для технического прогресса». Из-за сопротивления республиканцев в Конгрессе и Сенате администрация Байдена не смогла утвердить данные инициативы в виде закона, что вынудило ее прибегнуть к указам.

«Республиканцы поддерживают развитие искусственного интеллекта, основанное на принципах свободы слова и процветания человека», — говорилось в программном документе партии, с которым Дональд Трамп шел на выборы.

Отмена указа Байдена стала одним из предвыборных обещаний Трампа. По мнению экспертов, опрошенных агентством Reuters, новая администрация сосредоточится на стимулировании инноваций и снижении регулирования в сфере высоких технологий, включая ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Челябинские ученые предложили систему защиты от сбоев промышленных систем

Чтобы защитить промышленные системы от атак и сбоев, коллектив исследователей из Южно-Уральского государственного университета (ЮУрГУ) предложил подход, основанный на принципах поведенческой аналитики. В основе решения лежит нейросеть Кохонена.

Результаты исследования российских специалистов опубликованы в сборнике International Conference on Industrial Engineering, Applications and Manufacturing (ICIEAM).

Разработанная в ЮУрГУ система работает в два этапа. Сначала она анализирует функционирование объекта в нормальном режиме и формирует эталонную модель. Затем переходит в режим мониторинга и оценивает поступающие данные, сравнивая их с полученной «нормой». При обнаружении значительных отклонений нейросеть подаёт сигнал о потенциально опасной ситуации.

Во время тестирования система правильно классифицировала 94% данных. Обучение нейросети заняло около 3,5 минут. Кроме того, решение успешно выявило действия, характерные для кибератак на промышленные объекты.

Разработчики планируют повысить точность модели и расширить её возможности для распознавания различных, в том числе сложных, сценариев атак.

«Ключевое преимущество нашего подхода — использование нейросети Кохонена, которая способна работать с большими массивами данных, когда показателей много и они тесно взаимосвязаны. Классические алгоритмы часто не справляются с такими объёмами и сложностью», — рассказал РИА Новости заведующий кафедрой «Защита информации» ЮУрГУ Александр Соколов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru