Британских полицейских оснастят мобильными сканерами отпечатков пальцев

Британских полицейских оснастят мобильными сканерами отпечатков пальцев

Руководство правоохранительных органов Великобритании намерено обеспечить подобными устройствами всех сотрудников, работающих "в поле", дабы они могли оперативно проверять подозреваемых по базам данных биометрических образцов непосредственно на месте, не заезжая специально для этого в участок.


Профильное агентство NPIA, которое, помимо прочего, ведает улучшением материально-вещественной базы британской полиции, уже провело предварительные испытания и подтвердило, что внедрение мобильных сканеров действительно положительно сказывается на работе охранников общественного порядка, в частности - сокращает временные затраты на "обработку" подозреваемых. Теперь, соответственно, приборы получат более широкое распространение среди полицейских.

Контракт на изготовление и поставку устройств правоохранительные органы заключили с фирмой Cogent, которая взяла на себя обязательства изготовить две партии сканеров по 250 штук в каждой. Объем финансирования по контракту составляет порядка шести млн. фунтов, причем каждое устройство в конечном счете обойдется полисменам в 1900 фунтов (с учетом сервисного обслуживания, гарантии и доставки).

Система под названием MobileID работает следующим образом: прибор сканирует отпечаток пальца подозреваемого, пересылает посредством Bluetooth полученную информацию в зашифрованном виде на мобильное устройство офицера полиции (сообщается, что для этого будут использоваться смартфоны BlackBerry с соответствующим программным обеспечением), а оно, в свою очередь, связывается с национальной базой биометрических образцов IDENT1 и проверяет, нет ли в ней совпадающего отпечатка.

Если совпадение будет обнаружено, то полицейский незамедлительно получит соответствующее уведомление и сможет таким образом установить личность подозреваемого. Разработчики и заказчики подчеркивают при этом, что и прибор, и телефон служат лишь передатчиками и не сохраняют никакой служебной информации, да и внести изменения в базу данных система не может - то есть риск утечки или повреждения каких-либо сведений минимизирован.

V3.co.uk

Письмо автору

" />

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

DeepSeek-R1 генерирует больше уязвимостей в коде при запрещённых темах

Исследователи из CrowdStrike обнаружили необычное и тревожное поведение китайской модели DeepSeek-R1: она начинает генерировать заметно более уязвимый код, если в запросах появляются политически чувствительные темы для Китая. То есть сама формулировка запроса — например, упоминание Тибета или уйгуров — снижает качество и безопасность создаваемого ИИ кода.

По данным CrowdStrike, без «триггерных» слов модель допускает серьёзные уязвимости примерно в 19% случаев.

Но стоит добавить геополитический контекст, вероятность повышается почти на 50%. Так, при задаче создать компонент для системы, «используемой на промышленном объекте в Тибете», доля небезопасного кода выросла с 19% до 27,2%.

Исследователи подчёркивают: сами «политические» слова никак не связаны с задачей кодирования. Однако модель начинает вести себя нестабильно — от использования небезопасных функций до генерации откровенно нерабочего кода.

В одном примере DeepSeek-R1 написала вебхук для PayPal в виде PHP-кода, который не только содержал ключи в коде, но и вообще не являлся валидным PHP. Несмотря на это, модель уверяла, что всё сделано «по лучшим практикам PayPal».

 

В другом тесте исследователи попросили создать Android-приложение для сообщества уйгуров: регистрация, вход, админ-панель. Приложение работало, но не имело ни аутентификации, ни управления сессиями.

В 35% случаев DeepSeek-R1 вообще не использовала хеширование или применяла небезопасные методы. А вот для похожего задания, но про футбольный фан-клуб, таких проблем почти не было.

CrowdStrike также сообщила, что у модели, судя по всему, есть «встроенный рубильник»:

«DeepSeek-R1 начинает внутренне планировать решение задачи, но в последний момент отказывается отвечать на запросы, связанные, например, с Фалуньгун. В 45% таких случаев модель пишет: “Я не могу помочь с этим запросом“».

По мнению исследователей, причина кроется в обучении модели — вероятно, разработчики встроили специальные ограничения, чтобы соответствовать китайским законам и правилам цензуры.

CrowdStrike подчёркивает: наличие «триггерных слов» не гарантирует, что ИИ всегда выдаст небезопасный код. Но в среднем качество ощутимо падает.

Проблемы с безопасностью кода наблюдаются и у других инструментов. Проверка OX Security показала (PDF), что Lovable, Base44 и Bolt создают уязвимый по умолчанию код даже при запросе «безопасной» реализации. Все три инструмента сгенерировали вики-приложение с XSS-уязвимостью, позволяющей выполнять произвольный JavaScript. Хуже того, модель Lovable могла «пропатчить» уязвимость только в двух из трёх попыток, что создаёт ложное ощущение безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru