OpenAI будет передавать опасные чаты правоохранительным органам

OpenAI будет передавать опасные чаты правоохранительным органам

OpenAI будет передавать опасные чаты правоохранительным органам

Истории о том, как диалоги с чат-ботами заканчиваются психозами, госпитализацией или даже суицидом, уже больше года появляются в СМИ и соцсетях. На этом фоне OpenAI долгое время ограничивалась лишь общими обещаниями «улучшить защиту».

Теперь ситуация изменилась: в блоге OpenAI признала свои недоработки и сообщила, что начала сканировать пользовательские чаты на предмет опасного контента.

Если алгоритм «чует неладное», диалог попадает к небольшой команде сотрудников. А в случаях, когда модераторы видят «угрозу серьёзного физического вреда другим людям», компания может передать информацию в правоохранительные органы.

Интересный момент: о самоубийствах пока в полицию не сообщают — OpenAI объясняет это уважением к приватности и «уникально личному характеру общения с ChatGPT». Но компания открыто признаёт: да, мы читаем подозрительные чаты, а иногда делимся ими с властями.

Это, мягко говоря, выглядит противоречиво. С одной стороны, OpenAI отклоняет запросы издателей (включая New York Times), которые требуют доступ к логам переписок ради судебных разбирательств — и делает это под лозунгом защиты приватности пользователей. С другой — сама же может передавать чаты полиции.

Добавим к этому, что ещё недавно CEO Сэм Альтман честно говорил: разговор с ChatGPT как с психотерапевтом или юристом не равноценен конфиденциальной беседе с реальным специалистом. И если суды обяжут, то переписка пользователей вполне может оказаться в материалах дела.

В итоге получается странная картина: OpenAI вроде бы пытается закрыть дыры и снизить риски трагедий, но делает это так, что доверия к сервису у людей становится ещё меньше.

Критическая уязвимость в TLP позволяет обойти защиту Linux

В популярной утилите TLP, которую многие владельцы ноутбуков на Linux используют для управления энергопотреблением, обнаружили критическую уязвимость. Причём проблема нашлась во время обычной проверки пакета командой SUSE Security Team и располагается во вполне штатном коде.

Брешь получила идентификатор CVE-2025-67859 и затрагивает версию TLP 1.9.0, где появился новый profiles daemon.

Этот демон работает с root-правами и управляет профилями питания через D-Bus. Задумка хорошая, но реализация подвела: в механизме аутентификации Polkit нашлась логическая ошибка, которая фактически позволяет обойти проверку прав.

Как объясняют исследователи, демон должен был строго проверять, кто именно отправляет команды. Но из-за ошибки любой локальный пользователь мог взаимодействовать с ним без должной аутентификации — а значит, менять системные настройки питания от имени root.

На этом сюрпризы не закончились. В ходе анализа специалисты SUSE нашли ещё несколько проблем, уже связанных с исчерпанием ресурсов. В частности, механизм profile hold, который позволяет временно «зафиксировать» профиль питания, оказался совершенно без валидации. Локальный пользователь мог создавать неограниченное количество таких блокировок, причём без прав администратора.

В итоге это открывает прямую дорогу к DoS-атаке: демон начинает захлёбываться от бесконечных записей в структуре данных, куда попадают числа, строки с причиной и идентификаторы приложений — всё это полностью контролируется клиентом.

Любопытно, что SUSE вспомнила похожую историю с демоном управления питанием в GNOME: аналогичную проблему находили ещё несколько лет назад. Отдельно исследователи отметили вопросы к механизму «куки», которыми отслеживаются profile hold. Формально речь шла о предсказуемости значений, но в сочетании с отсутствием лимитов это лишь расширяло поверхность атаки.

К счастью, реакция была быстрой. SUSE сообщила об уязвимостях разработчикам ещё в декабре, и в версии TLP 1.9.1 проблема уже закрыта. В частности, число одновременных profile hold теперь жёстко ограничено числом 16, что убирает риск истощения ресурсов.

RSS: Новости на портале Anti-Malware.ru