Появились первые версии Firefox с функцией запрета слежения

Появились первые версии Firefox с функцией запрета слежения

Mozilla выпустила первые тестовые версии популярного Интернет-обозревателя Firefox, в которых доступен функционал запрета слежения за пользователем ("do-not-track"). Все те, кому хотелось бы  опробовать новые возможности браузера в действии, могут загрузить и установить соответствующую альфа-сборку.



PCWorld напоминает, что на минувшей неделе Mozilla раскрыла свои планы относительно введения в функционал грядущей версии обозревателя Firefox - 4.0 - особой подсистемы, которая должна стать оптимальным решением для пользователей Сети, не желающих, чтобы их активность в Интернете отслеживалась рекламодателями. Не далее как вчера разработчики уведомили общественность о том, что новая функция (или, правильнее сказать, первая попытка ее реализации) уже вошла в состав последних тестовых сборок, и при желании ее можно проверить в работе.


Стоит отметить, что альфа-версии (сотрудники Mozilla называют их "nightly builds" - "вечерние сборки") предназначены только для проверки функционала; уровень их стабильности ниже, чем у бета-выпусков.


Включить новую подсистему можно в настройках обозревателя: на вкладке "Расширенные настройки" необходимо установить отметку напротив фразы "Сообщать сайтам о запрете на отслеживание".


Механизм "запрета" прост: при включении этого режима каждому сайту будет посылаться особый сигнал. Сейчас он выглядит как "DNT: 1" (ранее предполагалось, что команда будет иметь вид "X-Do-Not-Track"). В теории, получив такой сигнал от обозревателя, ресурс Интернета должен будет отказаться от любых попыток отследить активность пользователя; иными словами, функционал полагается на добрую волю создателей веб-сайтов, которые, возможно, установят на сервере соответствующие настройки.


Разработчики Mozilla признали, что пока видимый эффект от включения новой подсистемы может не наблюдаться: вряд ли на данный момент какие-либо ресурсы Сети вообще способны распознать сигнал "запрета", не говоря уже о его обработке.


По мнению экспертов, потребность в "сотрудничестве" с операторами веб-сайтов (т.е. ожидание проявления доброй воли с их стороны) является основным изъяном этой системы. Многим организациям прекрасно известно, что практика сбора данных о пользователях без их ведома является довольно сомнительной с точки зрения этики, и что Федеральная комиссия США по торговле уже начинает принимать меры по борьбе с этой практикой, но, тем не менее, они продолжают заниматься слежкой за пользователями Сети. Соответственно, было бы несколько наивно ожидать, что они по собственной воле откажутся от этой деятельности только лишь на основании чьей-либо просьбы, которая юридически их ни к чему не обязывает.

" />

ChatGPT и DeepSeek пропускают до 50% уязвимостей в софте на Java и Python

Группа компаний «Солар» проверила, насколько хорошо большие языковые модели справляются с двумя самыми трудоёмкими задачами в безопасной разработке — триажем уязвимостей и их исправлением в коде. Итог исследования получился довольно показательный: популярные общедоступные модели ускоряют работу, но пока слишком часто ошибаются, чтобы полностью на них полагаться.

Эксперты Solar appScreener протестировали шесть LLM на 20 крупных приложениях на Java и Python, каждое объёмом более 100 тысяч строк кода. Для анализа использовали как облачные модели — GigaChat 3 PRO, ChatGPT 5.2 и DeepSeek 3.2, так и локальные решения on-premise, включая ChatGPT OSS, Mistral и специализированные модели DerTriage и DerCodeFix.

Сначала с помощью SAST-анализа в проектах нашли около 12 тысяч уникальных срабатываний, из которых почти 20% пришлись на уязвимости высокой критичности. После этого все модели получили одинаковый промпт с описанием уязвимости, фрагментом кода, трассой достижимости и идентификаторами CWE.

На этапе триажа результаты оказались неровными. В Java-проектах среди облачных моделей лучше всех выступил ChatGPT с точностью 60,9%, а DeepSeek показал лишь 50%. В Python-коде картина поменялась: DeepSeek добрался до 80%+, а ChatGPT показал 52,7%. Но лучший результат среди локальных решений продемонстрировала DerTriage — более 80% точности и для Java, и для Python.

С кодфиксом ситуация похожая. Для Java ChatGPT показал 61,8% точности, DeepSeek — 45,5%. В Python их показатели составили 46,6% и 44,8% соответственно. Локальная модель DerCodeFix снова оказалась впереди: 78,2% точности на Java и 83,1% на Python.

Главный вывод исследования простой: LLM действительно экономят время, но на самых ответственных этапах безопасной разработки универсальные модели пока не дают нужной надёжности. Если команда безоговорочно доверится таким инструментам, есть риск пропустить критичные уязвимости.

В «Соларе» также напоминают ещё об одной проблеме: использование облачных моделей может стать каналом утечки исходного кода. Поэтому для задач безопасной разработки компания рекомендует смотреть в сторону локальных моделей on-premise, которые работают в закрытом контуре и всё равно требуют проверки со стороны AppSec-инженера.

RSS: Новости на портале Anti-Malware.ru