Бэкдор в системах Gigabyte угрожает семи миллионам устройств

Бэкдор в системах Gigabyte угрожает семи миллионам устройств

Бэкдор в системах Gigabyte угрожает семи миллионам устройств

Исследователи выявили в системах Gigabyte «поведение в стиле бэкдора», которое якобы позволяет UEFI-прошивке устройств сбрасывать в систему Windows исполняемый файл и извлекать обновления в небезопасном формате.

На потенциальную киберугрозу обратили внимание специалисты компании Eclypsium. Ещё в апреле 2023 года их внимание привлёк условный бэкдор, который позже признали и устранили в Gigabyte.

«Большая часть версий прошивки Gigabyte включают “родной“ для Windows исполняемый файл, встроенный в UEFI. Выявленная исполняшка сбрасывается на диск и стартует с помощью механизма автоматического запуска в Windows. После этого изученный файл скачивает и открывает дополнительные бинарники небезопасным способом», — объясняют представители Eclypsium.

«В такой ситуации только намерения автора могут дать нам понять, что это: случайная уязвимость или специально внедрённый бэкдор».

Кроме того, в Eclypsium отметили, что интересующий их файл записывается прошивкой на диск в рамках процесса запуска операционной системы и стартует в качестве службы обновления. Загрузка происходит с серверов Gigabyte по простому HTTP, то есть здесь возможна атака «человек посередине».

Специалисты считают, что подозрительный софт, скорее всего, задумывался как легитимное приложение для обновления. Поскольку уязвимость (или бэкдор) затрагивает системы 364 Gigabyte, под угрозой находятся приблизительно семь миллионов устройств.

Самое неприятное в такого рода вредоносах — их нельзя удалить даже после полной переустановки операционной системы и очистки диска. Дело в том, что UEFI-код располагается в материнской плате.

Организациям рекомендуют как можно скорее установить последние обновления прошивки от Gigabyte. Помимо этого, эксперты советуют отключить функцию «APP Center Download & Install» в настройках BIOS и запаролить его.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI вводит проверку возраста в ChatGPT для защиты подростков

OpenAI готовит серьёзные изменения в работе ChatGPT — компания собирается ввести проверку возраста. Новые правила затронут всех пользователей, но в первую очередь направлены на защиту подростков. Причина в том, что ChatGPT всё чаще используют для откровенных разговоров на личные темы, включая психическое здоровье.

В компании напоминают трагический случай: весной подросток несколько часов обсуждал с чат-ботом тему суицида, а затем покончил с собой. Семья подала в суд, и OpenAI решила усилить меры безопасности.

Также вспоминается другой эпизод — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

После этого в OpenAI заявили, что будут направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустят родительский контроль

Как это будет работать

По словам Сэма Альтмана, CEO OpenAI, компания внедряет систему предсказания возраста. Алгоритм будет анализировать, как человек пользуется ChatGPT, и пытаться определить, подросток он или взрослый. Если останутся сомнения, пользователю автоматически назначат «подростковый режим». В некоторых странах и ситуациях может потребоваться подтверждение возраста с помощью документа.

Для подростков будут действовать жёсткие ограничения. Например, ChatGPT перестанет отвечать флиртом даже по запросу, а обсуждение суицида станет полностью запрещено. В случае выявления суицидальных мыслей компания оставляет за собой право обратиться к родителям или даже к властям, если родители недоступны.

Что это значит для взрослых

Взрослым пользователям, возможно, придётся смириться с тем, что их свобода частично ограничится — например, придётся подтверждать возраст. Альтман называет это «разумной ценой» ради безопасности подростков.

Почему это важно

ChatGPT и другие чат-боты всё чаще становятся собеседниками «для серьёзных разговоров» — от вопросов про здоровье и право до поиска поддержки в сложных ситуациях. Но, как отмечают исследователи из Стэнфорда, ИИ-помощники пока не справляются с ролью психотерапевта: они могут недооценить психическое состояние или дать неподходящий совет.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru