Лаборатория Касперского открыла исходный код сканера KLara

Лаборатория Касперского открыла исходный код сканера KLara

Лаборатория Касперского открыла исходный код сканера KLara

Эксперты «Лаборатории Касперского» опубликовали на портале GitHub исходный код сканера KLara. Это внутренний инструмент компании для более эффективного поиска образцов вредоносных программ. Теперь сканером могут воспользоваться все желающие.

Основная задача KLara — обнаружение родственных образцов вредоносного кода. Это один из ключевых аспектов исследований киберугроз, который помогает экспертам отслеживать развитие вредоносов. Как правило, в таких случаях прибегают к YARA-правилам, которые сопоставляют различные образцы кода и ищут совпадения по уникальным характеристикам или шаблонам. Такой инструмент незаменим при исследовании продвинутых киберугроз, операций с применением «бесфайловых» троянцев или внешне легитимных инструментов, а также случаев, когда вредоносный код дорабатывается под конкретную жертву.

Самостоятельная разработка и тестирование YARA — крайне трудоёмкий процесс. Чтобы решить эту проблему, исследователи «Лаборатории Касперского» создали KLara. Это распределённая система, которая может производить быстрый поиск сразу по нескольким базам с применением нескольких правил. Такой подход позволяет быстрее выявлять образцы вредоносного кода, а значит более эффективно защищать пользователей.

«Охота за киберугрозами требует специфических инструментов и систем. Особенно это актуально, когда речь идёт о продвинутых целевых атаках, которые могут длиться месяцами и даже годами. Мы создали KLara, чтобы эффективнее отслеживать всё разнообразие угроз, и теперь хотели бы поделиться этим инструментом с профессиональным сообществом. Уверены, все по достоинству оценят пользу от него», — добавил Игорь Суменков, ведущий антивирусный эксперт «Лаборатории Касперского».

Больше технических подробностей о KLara можно найти по ссылке: https://securelist.com/your-new-friend-klara/85046/. Инструмент доступен для скачивания на официальной странице «Лаборатории Касперского» на GitHub: https://github.com/KasperskyLab.

Также в открытом доступе можно найти другой инструмент компании – BitScout. Он был разработан ведущим антивирусным экспертом компании Виталием Камлюком в 2017 году. BitScout может удалённо собирать оставленные злоумышленниками цифровые «улики», например, образцы вредоносов. Больше информации о BitScout можно найти здесь: https://securelist.com/bitscout-the-free-remote-digital-forensics-tool-b...

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru