В интернет попала база 170 000 сотрудников и подрядчиков компании Shell

В интернет попала база 170 000 сотрудников и подрядчиков компании Shell

Система безопасности англо-голландской нефтяной компании Shell дала сбой, в результате чего в сеть интернет попали контактные данные более чем 170 тысяч работников и подрядчиков компании.

 

Как сообщает британский телеканал BBC, копии базы данных с контактами компании, охватывающей весь мир, были разосланы по электронной почте представителям некоммерческих организаций, занимающихся защитой прав человека и окружающей среды. Информация включает имена сотрудников, их рабочие телефонные номера и домашние почтовые индексы. В некоторых случаях в базе содержится личная информация, например, домашние телефонные номера работников Shell.

Одним из тех, кто получил этот список, оказался Джон Донован – блогер, ведущий борьбу с Shell с помощью своего электронного журнала. По словам Донована, по просьбе компании он удалил базу данных, полученную по электронной почте, так как сотрудники Shell уверяли его, что ее публикация может нанести ущерб работникам, находящимся в таких местах, как Нигерия, где известны случаи похищения людей, работающих в Shell.

"Я знаю, что у меня не единственная копия. Я лично знаю одну некоммерческую организацию, которая распространила этот список. Проблема интернета заключается в том, что информация распространяется молниеносно. Как только она просачивается в сеть, контролировать ее чрезвычайно трудно", - сказал Донован.

К данным прилагается сообщение, что утечка произошла через сотрудников компании, недовольных политикой нефтяного гиганта. Согласно этому сообщению, среди сотрудников компании много активистов некоммерческих организаций. Однако Shell сомневается в подлинности этого заявления и начала расследование утечки. По словам представителей компании, информация, попавшая в интернет, имеет отношение к бизнесу, а контактные данные не включают домашние адреса сотрудников и не представляют опасности для работников, в том числе находящихся в Нигерии.

Источник

ChatGPT и DeepSeek пропускают до 50% уязвимостей в софте на Java и Python

Группа компаний «Солар» проверила, насколько хорошо большие языковые модели справляются с двумя самыми трудоёмкими задачами в безопасной разработке — триажем уязвимостей и их исправлением в коде. Итог исследования получился довольно показательный: популярные общедоступные модели ускоряют работу, но пока слишком часто ошибаются, чтобы полностью на них полагаться.

Эксперты Solar appScreener протестировали шесть LLM на 20 крупных приложениях на Java и Python, каждое объёмом более 100 тысяч строк кода. Для анализа использовали как облачные модели — GigaChat 3 PRO, ChatGPT 5.2 и DeepSeek 3.2, так и локальные решения on-premise, включая ChatGPT OSS, Mistral и специализированные модели DerTriage и DerCodeFix.

Сначала с помощью SAST-анализа в проектах нашли около 12 тысяч уникальных срабатываний, из которых почти 20% пришлись на уязвимости высокой критичности. После этого все модели получили одинаковый промпт с описанием уязвимости, фрагментом кода, трассой достижимости и идентификаторами CWE.

На этапе триажа результаты оказались неровными. В Java-проектах среди облачных моделей лучше всех выступил ChatGPT с точностью 60,9%, а DeepSeek показал лишь 50%. В Python-коде картина поменялась: DeepSeek добрался до 80%+, а ChatGPT показал 52,7%. Но лучший результат среди локальных решений продемонстрировала DerTriage — более 80% точности и для Java, и для Python.

С кодфиксом ситуация похожая. Для Java ChatGPT показал 61,8% точности, DeepSeek — 45,5%. В Python их показатели составили 46,6% и 44,8% соответственно. Локальная модель DerCodeFix снова оказалась впереди: 78,2% точности на Java и 83,1% на Python.

Главный вывод исследования простой: LLM действительно экономят время, но на самых ответственных этапах безопасной разработки универсальные модели пока не дают нужной надёжности. Если команда безоговорочно доверится таким инструментам, есть риск пропустить критичные уязвимости.

В «Соларе» также напоминают ещё об одной проблеме: использование облачных моделей может стать каналом утечки исходного кода. Поэтому для задач безопасной разработки компания рекомендует смотреть в сторону локальных моделей on-premise, которые работают в закрытом контуре и всё равно требуют проверки со стороны AppSec-инженера.

RSS: Новости на портале Anti-Malware.ru