На Vimeo подали в суд за незаконный сбор биометрических данных людей

На Vimeo подали в суд за незаконный сбор биометрических данных людей

На Vimeo подали в суд за незаконный сбор биометрических данных людей

Популярный видеохостинг Vimeo обвиняют в незаконном сборе и хранении биометрических данных пользователей без их ведома и согласия. Сообщается, что сервис сканирует размещённые видео и фото, отмечая лица запечатлённых там людей.

В соответствующем исковом заявлении (PDF) недовольные практиками Vimeo юристы утверждают, что видеохостинг нарушает Закон Иллинойса о неприкосновенности биометрических данных (BIPA). Как известно, этот закон накладывает на бизнес определённые требования по части сбора и хранения биометрических данных (куда входят отпечатки пальцев, сканы сетчатки и сканы лица).

«Прямо нарушая BIPA, Vimeo активно собирает, хранит и использует биометрические данные тысяч людей. При этом видеохостинг никак не предупреждает об этом пользователей и даже не имеет прописанных правил на этот счёт», — гласит исковое заявление.

«В частности, сервис собирает биометрические данные лиц, фигурирующих на фотографиях и в видеороликах, размещённых на его платформе».

Также юристы отметили, что Vimeo создаёт своего рода шаблоны лиц, которые уникальны и способны настолько же качественно идентифицировать человека, как и отпечатки пальцев или образец голоса.

Представители Vimeo на данный момент никак не отреагировали на исковое заявление и не предоставили каких-либо комментариев СМИ.

Утечки из российских компаний через зарубежные ИИ-сервисы выросли в 30 раз

По итогам 2025 года объёмы данных, утёкших из российских компаний из-за использования сотрудниками общедоступных ИИ-сервисов — таких как ChatGPT и Google Gemini — выросли в 30 раз. Такие выводы сделаны на основе анализа сетевого трафика 150 российских организаций, являющихся клиентами ГК «Солар».

В выборку вошли заказчики из разных отраслей, включая ИТ, госсектор, телеком, финансы, ретейл, электронную коммерцию и промышленность.

«Сотрудники загружают в чат-боты фрагменты исходного кода, финансовые отчёты, юридические документы и клиентские базы, чтобы “упростить” рутинные задачи — проанализировать данные, составить саммари или написать код. Таким образом, они неосознанно становятся одной из причин утечек информации», — говорится в отчёте по итогам исследования.

При этом, как отмечают аналитики, у 60% организаций до сих пор отсутствуют формализованные политики, регулирующие использование ИИ-ассистентов. Это существенно повышает риски для бизнеса, в том числе на критическом уровне.

Согласно сентябрьскому исследованию Яндекса и Университета ИТМО, утечки данных через зарубежные ИИ-сервисы стали одним из ключевых факторов перехода компаний на российские аналоги. Тогда о планах полностью отказаться от иностранных решений заявляла примерно треть опрошенных организаций.

RSS: Новости на портале Anti-Malware.ru