Facebook тестировал приложение для распознавания лиц на сотрудниках

Facebook тестировал приложение для распознавания лиц на сотрудниках

Facebook тестировал приложение для распознавания лиц на сотрудниках

Facebook опять оказался в центре внимания благодаря своим спорным практикам. На этот раз новостные издания утверждают, что интернет-гигант тестировал на своих сотрудниках приложение для распознавания лиц. Чтобы идентифицировать того или иного человека, нужно было всего лишь направить на него камеру смартфона.

Согласно материалу Business Insider, разработка приложения велась между 2015 и 2016 годами, но потом проект забросили.

Издание, ссылаясь на анонимные источники, сообщает, что вышеупомянутый инструмент может даже выявить конкретный аккаунт пользователя Facebook, используя возможности распознавания лица.

Предположительно, Facebook тестировал отдельные версии разработки на своих сотрудниках и их друзьях. Для этого последние должны были активировать функцию распознавания лица в своих учётных записях.

Представители социальной сети подтвердили, что корпорация действительно разрабатывала такой инструмент, однако полностью опровергли возможность идентифицировать пользователей площадки.

«Чтобы осваивать новые технологии, наша команда постоянно разрабатывает приложения, которые затем используются внутри компании. Данное приложение [инструмент для распознавания лиц — прим. ред.] было доступно исключительно сотрудникам Facebook», — сказано в официальном заявлении интернет-гиганта.

«Таким образом, эта разработка могла распознать лица только наших служащих, а также их друзей, которые активировали соответствующую функцию в своих аккаунтах».

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru