Совет ЕС принял единый регламент по безопасности IoT

Совет ЕС принял единый регламент по безопасности IoT

Совет ЕС принял единый регламент по безопасности IoT

Евросовет принял единый регламент, который содержит требования по обеспечению кибербезопасности подключенных цифровых продуктов, относящихся к устройствам интернета вещей (IoT). Новый регламент вступит в силу 1 ноября 2024 года. Однако полностью он начнет применяться только через 3 года.

Впервые о данном документе объявила председатель Еврокомиссии Урсула фон дер Ляйен в сентябре 2021 года в обращении к членам ЕС.

15 сентября 2022 года Еврокомиссия представила предложения, дополняющие Акт о киберустойчивости, где содержались требования к обеспечению безопасности IoT-устройств.

Вышедший 10 октября 2024 года регламент (PDF) вводит единые для всего ЕС требования к кибербезопасности IoT-устройств. Они касаются всех стадий их жизненного цикла, включая проектирование, разработку, производство и предоставления на рынке аппаратных и программных продуктов.

Регламент будет распространяться на все девайсы, которые могут подключаться друг к другу или к разного рода публичным сетям, включая интернет. Однако предусмотрены исключения для изделий и продуктов, где требования к кибербезопасности регламентируются другими документами на уровне ЕС, в частности, ряда систем для автомобилей, авиации и медицинского оборудования.

Требования нового регламента направлены на то, чтобы поднять информированность потребителей о том, что выбираемые ими устройства содержать подключаемые компоненты и убедиться в их безопасности.

Пока уровень кибербезопасности IoT устройств остается низким. Атака на многие из них является тривиальной процедурой даже для низкоквалифицированных злоумышленников. Плюс ко всему, подключенные устройства, в том числе бытового назначения, собирают большие массивы довольно чувствительных данных, которые скрытно передаются производителю.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI вводит проверку возраста в ChatGPT для защиты подростков

OpenAI готовит серьёзные изменения в работе ChatGPT — компания собирается ввести проверку возраста. Новые правила затронут всех пользователей, но в первую очередь направлены на защиту подростков. Причина в том, что ChatGPT всё чаще используют для откровенных разговоров на личные темы, включая психическое здоровье.

В компании напоминают трагический случай: весной подросток несколько часов обсуждал с чат-ботом тему суицида, а затем покончил с собой. Семья подала в суд, и OpenAI решила усилить меры безопасности.

Также вспоминается другой эпизод — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

После этого в OpenAI заявили, что будут направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустят родительский контроль

Как это будет работать

По словам Сэма Альтмана, CEO OpenAI, компания внедряет систему предсказания возраста. Алгоритм будет анализировать, как человек пользуется ChatGPT, и пытаться определить, подросток он или взрослый. Если останутся сомнения, пользователю автоматически назначат «подростковый режим». В некоторых странах и ситуациях может потребоваться подтверждение возраста с помощью документа.

Для подростков будут действовать жёсткие ограничения. Например, ChatGPT перестанет отвечать флиртом даже по запросу, а обсуждение суицида станет полностью запрещено. В случае выявления суицидальных мыслей компания оставляет за собой право обратиться к родителям или даже к властям, если родители недоступны.

Что это значит для взрослых

Взрослым пользователям, возможно, придётся смириться с тем, что их свобода частично ограничится — например, придётся подтверждать возраст. Альтман называет это «разумной ценой» ради безопасности подростков.

Почему это важно

ChatGPT и другие чат-боты всё чаще становятся собеседниками «для серьёзных разговоров» — от вопросов про здоровье и право до поиска поддержки в сложных ситуациях. Но, как отмечают исследователи из Стэнфорда, ИИ-помощники пока не справляются с ролью психотерапевта: они могут недооценить психическое состояние или дать неподходящий совет.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru