"Лаборатория Касперского" реализует антивирусную защиту на графических решениях Nvidia Tesla

"Лаборатория Касперского" реализует антивирусную защиту на графических решениях Nvidia Tesla

«Лаборатория Касперского» внедрила в свою инфраструктуру технологии параллельных вычислений от Nvidia. Для повышения уровня защиты клиентов компания начала использовать высокопроизводительные вычислительные системы Nvidia Tesla S1070, созданные на основе многоядерных графических процессоров.

Графические процессоры Nvidia Tesla основаны на вычислительной архитектуре Nvidia CUDA, благодаря чему программировать GPU можно с помощью стандартных языков программирования и API. «Лаборатория Касперского» использует одноюнитовые серверные системы Tesla S1070 для ускорения интеллектуальных сервисов определения схожести файлов. Сервисы схожести позволяют идентифицировать новые файлы, определяя, на какой файл или группу файлов больше всего похожа неизвестная программа, поступившая в антивирусную лабораторию компании.

Использование систем Tesla сервисами определения схожести позволило значительно повысить скорость идентификации неизвестных файлов и ускорить реакции на новые угрозы, обеспечив пользователей ещё более быстрой и полной защитой. Так, во время внутреннего тестирования система Tesla S1070 показала в 360 раз более высокую скорость работы алгоритма определения схожести по сравнению с распространенным центральным процессором Intel Core 2 Duo с тактовой частотой 2,6 ГГц.

Алгоритмы сервисов определения схожести были специально оптимизированы для работы на новых вычислителях. Они были значительно переработаны для одновременного выполнения сотен и тысяч инструкций, за каждую из которых обрабатываются большие массивы данных. Для этого специалисты «Лаборатории Касперского» использовали среду разработки Nvidia CUDA SDK, позволяющую писать программы для графических процессоров Nvidia последних поколений на стандартных языках программирования.

В «Лаборатории Касперского» планируют расширять область использования средств высокопроизводительных параллельных вычислений на графических процессорах.

Источник

ChatGPT получил режим защиты от атак через инъекцию промпта

OpenAI усиливает защиту ChatGPT и добавляет два новых инструмента безопасности — Lockdown Mode и метки Elevated Risk. Они призваны снизить риски инъекции промпта и других сложных атак, особенно когда ИИ взаимодействует с внешними сервисами и приложениями.

Lockdown Mode — это опциональный режим для организаций с повышенными требованиями к безопасности.

Он жёстко ограничивает, как ChatGPT может работать с внешними системами, чтобы минимизировать вероятность утечки данных. Например, при включённом режиме браузинг ограничивается кешированным контентом, а «живые» сетевые запросы не покидают инфраструктуру OpenAI.

Также отключаются отдельные инструменты и возможности, которые теоретически могут быть использованы злоумышленниками через вредоносные инструкции в диалоге.

 

Включить Lockdown Mode могут администраторы через настройки Workspace, создав отдельную роль с дополнительными ограничениями. Сейчас функция доступна в корпоративных версиях — ChatGPT Enterprise, Edu, for Healthcare и for Teachers. В будущем её планируют расширить и на обычных пользователей.

Вторая новинка — метки Elevated Risk. Это встроенные предупреждения, которые появляются при активации функций, потенциально связанных с дополнительными рисками. Они объясняют, что именно меняется при включении той или иной возможности и какие последствия это может повлечь. Например, если в Codex дать системе доступ к сети, метка прямо укажет на связанные с этим угрозы.

В OpenAI подчёркивают, что по мере усиления защитных механизмов такие предупреждения могут исчезать, а список функций с пометкой Elevated Risk будет меняться. По сути, компания делает ставку не только на технические ограничения, но и на прозрачность: чем глубже ИИ интегрируется в рабочие процессы и подключается ко внешним сервисам, тем важнее, чтобы пользователи понимали связанные с этим риски.

RSS: Новости на портале Anti-Malware.ru