"Лаборатория Касперского" реализует антивирусную защиту на графических решениях Nvidia Tesla

"Лаборатория Касперского" реализует антивирусную защиту на графических решениях Nvidia Tesla

«Лаборатория Касперского» внедрила в свою инфраструктуру технологии параллельных вычислений от Nvidia. Для повышения уровня защиты клиентов компания начала использовать высокопроизводительные вычислительные системы Nvidia Tesla S1070, созданные на основе многоядерных графических процессоров.

Графические процессоры Nvidia Tesla основаны на вычислительной архитектуре Nvidia CUDA, благодаря чему программировать GPU можно с помощью стандартных языков программирования и API. «Лаборатория Касперского» использует одноюнитовые серверные системы Tesla S1070 для ускорения интеллектуальных сервисов определения схожести файлов. Сервисы схожести позволяют идентифицировать новые файлы, определяя, на какой файл или группу файлов больше всего похожа неизвестная программа, поступившая в антивирусную лабораторию компании.

Использование систем Tesla сервисами определения схожести позволило значительно повысить скорость идентификации неизвестных файлов и ускорить реакции на новые угрозы, обеспечив пользователей ещё более быстрой и полной защитой. Так, во время внутреннего тестирования система Tesla S1070 показала в 360 раз более высокую скорость работы алгоритма определения схожести по сравнению с распространенным центральным процессором Intel Core 2 Duo с тактовой частотой 2,6 ГГц.

Алгоритмы сервисов определения схожести были специально оптимизированы для работы на новых вычислителях. Они были значительно переработаны для одновременного выполнения сотен и тысяч инструкций, за каждую из которых обрабатываются большие массивы данных. Для этого специалисты «Лаборатории Касперского» использовали среду разработки Nvidia CUDA SDK, позволяющую писать программы для графических процессоров Nvidia последних поколений на стандартных языках программирования.

В «Лаборатории Касперского» планируют расширять область использования средств высокопроизводительных параллельных вычислений на графических процессорах.

Источник

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru