Новая версия Solar appScreener позволит снизить затраты на DevSecOps на 15%

Новая версия Solar appScreener позволит снизить затраты на DevSecOps на 15%

Новая версия Solar appScreener позволит снизить затраты на DevSecOps на 15%

Группа компаний «Солар» представила обновленную версию платформы для анализа кода Solar appScreener. Улучшенные алгоритмы позволяют повысить эффективность процессов DevSecOps и оптимизировать использование ресурсов.

По данным опроса среди пользователей платформы, внедрение решения способствует снижению совокупной стоимости владения (ТСО) безопасной разработки до 15%.

Использование инструментов анализа кода в процессе разработки помогает сократить риски, связанные с уязвимостями мобильных и веб-приложений. Согласно данным Центра исследования киберугроз Solar 4RAYS, за первое полугодие 2024 года 43% хакерских атак на корпоративную инфраструктуру были связаны с уязвимостями в приложениях.

Среди наиболее распространенных проблем — недостатки контроля доступа (75% для веб-приложений и 60% для мобильных), раскрытие отладочной и конфигурационной информации (73% и 60% соответственно), межсайтовый скриптинг (XSS), а также утечка данных из исходного кода мобильных приложений (33%).

«Рост стоимости владения программным обеспечением в корпоративном сегменте оценивается в 10–20% ежегодно. На это влияют сложности с закупкой оборудования, инвестиции в импортозамещение и кадровый дефицит. В обновленной версии Solar appScreener мы сосредоточились на оптимизации использования ресурсов без ущерба для качества и безопасности кода. Это позволяет разработчикам встроить платформу в цикл разработки, снизить риски при работе с приложениями и обеспечить защиту пользовательских данных», — отмечает Владимир Высоцкий, руководитель направления Solar appScreener.

Обновленная версия предлагает новые механизмы управления агентами сканирования, что позволяет ИТ-командам параллельно анализировать несколько проектов с учетом их приоритетов.

Оптимизированы модули анализа, включая использование вычислительных ресурсов, что особенно актуально для крупных проектов с объемом кода в миллионы строк. В ходе тестирования зафиксировано сокращение времени сканирования на 15–35%.

Также переработан дистрибутив системы, что упрощает установку и снижает требования к квалификации специалистов. В целях ускорения DevSecOps-процессов добавлена возможность регулирования глубины анализа кода — например, анализ только прямых зависимостей или отключение перекрестных библиотек в рамках SAST-анализа.

Кроме того, в новой версии усовершенствованы механизмы статического и динамического анализа кода. База правил SAST-модуля пополнилась 500 новыми сигнатурами поиска уязвимостей, а в модуле DAST расширены возможности аутентификации, включая поддержку протокола NTLM и интеграцию с расширенными API-спецификациями тестируемого ПО.

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru