Репозитории GitHub теперь предупреждают об уязвимостях в Python

Репозитории GitHub теперь предупреждают об уязвимостях в Python

Репозитории GitHub теперь предупреждают об уязвимостях в Python

Разработчики GitHub помогут пользователям Python получать уведомления о проблемах безопасности. В случае, например, если их репозитории зависят от пакетов с известными уязвимостями, пользователи будут получать предупреждения.

«В прошлом году мы запустили систему предупреждений о проблемах безопасности, которая отслеживают уязвимости в пакетах Ruby и JavaScript. С тех пор мы обнаружили миллионы уязвимостей, что помогло выпустить огромное количество патчей для них», — пишут разработчики в своем блоге.

«Мы рады сообщить, что теперь эта система также поддерживает Python».

Специалисты запустили систему, которая пока содержит данные о нескольких недавних уязвимостях. В течение следующих недель разработчики планируют добавить в базу новые уязвимости Python.

«В будущем мы продолжим отслеживать ленту NVD и другие источники, которые помогут нам актуализировать информацию о проблемах безопасности в Python».

Как же начать пользоваться этой системой? Сначала проверьте файл requirements.txt (или Pipfile.lock), который должен находиться внутри репозиториев с кодом Python. В публичных репозиториях граф зависимостей и оповещения о проблемах безопасности будут активированы.

Для частных репозиториев вам необходимо выбрать оповещения о проблемах безопасности в настройках или разрешить доступ в разделе графика зависимостей вкладки «Insights».

Если эта опция активирована, администраторы будут получать предупреждения о безопасности по умолчанию. Администраторы могут также добавлять группы людей или отдельных лиц в качестве получателей таких оповещений.

В начале года мы писали о появлении кода Python, который автоматически искал уязвимые устройства с помощью поисковика Shodan.io. Если такие устройства обнаруживались, вредонос использовал базу эксплойтов Metasploit для взлома и проникновения в систему.

ИИ сказал — ты согласился: учёные описали феномен когнитивной капитуляции

Исследователи из Университета Пенсильвании предложили новое объяснение тому, как люди взаимодействуют с ИИ. По их мнению, всё чаще пользователи не просто пользуются нейросетями, а буквально «сдаются» им. Этот феномен специалисты назвали «когнитивной капитуляцией» (cognitive surrender).

Если раньше люди использовали технологии вроде калькуляторов или GPS для отдельных задач — «разгружали» мозг, но сохраняли контроль, — то с ИИ ситуация меняется.

Всё чаще пользователи просто принимают ответы модели за истину, не проверяя и не анализируя их. Причём, как отмечают исследователи, это особенно заметно, если ответ звучит уверенно, гладко и без лишних сложностей. В таком случае у человека просто не включается внутренний «режим сомнения».

Чтобы проверить это, учёные провели серию экспериментов с участием более 1300 человек. Им предложили задачи на когнитивное мышление с подвохом, который требует не интуиции, а вдумчивого анализа.

Часть участников могла пользоваться ИИ-помощником, но с нюансом: модель специально давала неправильные ответы примерно в половине случаев. Результат оказался показательным.

 

Когда ИИ отвечал правильно, пользователи соглашались с ним в 93% случаев. Но даже когда он ошибался, люди всё равно принимали его ответ в 80% случаев. То есть большинство просто не перепроверяло результат, даже если он был неверным.

В среднем участники соглашались с ошибочным ИИ в 73% случаев и оспаривали его лишь в 19,7% случаев.

Более того, у тех, кто пользовался ИИ, уровень уверенности в своих ответах оказался выше — даже несмотря на то, что половина этих ответов была неправильной.

 

Интересно, что поведение менялось в зависимости от условий. Например, если участникам давали небольшие денежные стимулы за правильные ответы и мгновенную обратную связь, они чаще перепроверяли ИИ и исправляли ошибки. А вот дефицит времени, наоборот, усиливал зависимость от модели: под давлением дедлайна люди ещё охотнее доверяли ИИ.

Не все оказались одинаково уязвимы. Люди с более высоким уровнем так называемого флюидного интеллекта (fluid IQ) реже полагались на ИИ и чаще замечали его ошибки. А вот те, кто изначально воспринимал ИИ как авторитетный источник, чаще попадались на неверные ответы.

При этом сами исследователи подчёркивают: «когнитивная капитуляция» — не обязательно зло сама по себе. Если ИИ действительно работает лучше человека, логично ему доверять, особенно в задачах вроде анализа данных или оценки рисков.

Но есть важный нюанс: качество мышления в таком случае напрямую зависит от качества самой модели.

RSS: Новости на портале Anti-Malware.ru