GitHub будет удалять коды эксплойтов, используемых в реальных атаках

GitHub будет удалять коды эксплойтов, используемых в реальных атаках

GitHub будет удалять коды эксплойтов, используемых в реальных атаках

Правила сообщества GitHub претерпели некоторые изменения, коснувшиеся публикации кодов демонстрационных эксплойтов (PoC, proof-of-concept). Теперь площадка будет более внимательно относиться к используемым в реальных атаках уязвимостям.

Кстати, уже можно разобрать новую политику на примере. Нгуен Чжан в марте загрузил на GitHub PoC-эксплойт, использующий печально известную связку уязвимостей ProxyLogon в Microsoft Exchange.

Вскоре после этого Чжан получил от GitHub электронное письмо, уведомляющее об удалении кода в связи с нарушением правил использования площадки. Представители GitHub заявили, что PoC-код необходимо было убрать, чтобы защитить серверы Microsoft Exchange от реальных кибератак, в ходе которых злоумышленники эксплуатировали вышеназванную связку брешей.

«Мы понимаем, что публикация демонстрационного эксплойта преследует безобидные цели, помогающие сообществу специалистов по кибербезопасности изучать способы эксплуатации. Однако наша задача — сохранить баланс между пользой и откровенным вредом от публикации proof-of-concept», — отметили в GitHub.

Тем не менее, учитывая даже такое доходчивое объяснение, GitHub столкнулся с недовольством экспертов, обвинивших площадку в излишней лояльности к Microsoft, чей продукт и был затронут уязвимостями. Напомним, что Microsoft выкупила GitHub.

После этого сервис объявил о запрете репозиториев, созданных для размещения вредоносных программ и потенциально выступающих в роли командных серверов (C2) в кампаниях злоумышленников. Загружать эксплойты при этом всё ещё дозволяется, однако они должны содержать новую информацию для исследователей в области кибербезопасности.

Помимо этого, в GitHub пообещали реагировать на обратную связь и постоянно совершенствовать правила использования сервиса.

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru