На Vimeo подали в суд за незаконный сбор биометрических данных людей

На Vimeo подали в суд за незаконный сбор биометрических данных людей

На Vimeo подали в суд за незаконный сбор биометрических данных людей

Популярный видеохостинг Vimeo обвиняют в незаконном сборе и хранении биометрических данных пользователей без их ведома и согласия. Сообщается, что сервис сканирует размещённые видео и фото, отмечая лица запечатлённых там людей.

В соответствующем исковом заявлении (PDF) недовольные практиками Vimeo юристы утверждают, что видеохостинг нарушает Закон Иллинойса о неприкосновенности биометрических данных (BIPA). Как известно, этот закон накладывает на бизнес определённые требования по части сбора и хранения биометрических данных (куда входят отпечатки пальцев, сканы сетчатки и сканы лица).

«Прямо нарушая BIPA, Vimeo активно собирает, хранит и использует биометрические данные тысяч людей. При этом видеохостинг никак не предупреждает об этом пользователей и даже не имеет прописанных правил на этот счёт», — гласит исковое заявление.

«В частности, сервис собирает биометрические данные лиц, фигурирующих на фотографиях и в видеороликах, размещённых на его платформе».

Также юристы отметили, что Vimeo создаёт своего рода шаблоны лиц, которые уникальны и способны настолько же качественно идентифицировать человека, как и отпечатки пальцев или образец голоса.

Представители Vimeo на данный момент никак не отреагировали на исковое заявление и не предоставили каких-либо комментариев СМИ.

Дипфейки невозможно распознать без специальных технических средств

Сгенерированные нейросетями изображения, аудио- и видеоматериалы практически невозможно распознать без специальных технических средств. В МВД России заявили, что эксперты-криминалисты используют для этого специализированные детекторы.

О методах выявления дипфейков рассказал в интервью ТАСС начальник Экспертно-криминалистического центра МВД России генерал-лейтенант полиции Вадим Казьмин.

По его словам, современные дипфейки — будь то видео, аудио, изображения или даже прямые трансляции — отличаются высокой степенью реалистичности. Без применения специальных инструментов отличить их от подлинных материалов практически невозможно.

«Мы прекрасно осведомлены не только о возможностях нейросетей, но и об их недостатках. С помощью современных нейросетевых детекторов эксперт может распознавать различные манипуляции с голосовыми сообщениями, видеозаписями и фотографиями», — отметил руководитель экспертного подразделения МВД.

Массовое использование дипфейков в преступных схемах стало заметным в середине 2025 года. Тогда широкое распространение получила схема с просьбами о срочной финансовой помощи якобы от знакомых или родственников жертвы — с использованием поддельных голосов и видеоизображений. В тот период фальшивки зачастую были низкого качества и их можно было выявить по характерным артефактам.

Кроме того, дипфейки активно применяются в мошеннических сценариях с ложными свиданиями (Fake Date). Уже в феврале 2025 года было зафиксировано не менее десяти подобных случаев, причинивших значительный ущерб.

RSS: Новости на портале Anti-Malware.ru