В Яндекс ID теперь можно войти по лицу или отпечатку пальца

В Яндекс ID теперь можно войти по лицу или отпечатку пальца

В Яндекс ID теперь можно войти по лицу или отпечатку пальца

Пользователи Яндекс ID теперь могут пройти аутентификацию с помощью сканирования отпечатка пальца или лица. Таким образом, копания продолжает развивать беспарольные методы входа в аккаунт.

Как отмечают разработчики, биометрическая аутентификация стала доступна благодаря интеграции веб-стандарта WebAuthn. Считается, что последний обеспечивает довольно высокий уровень безопасности и конфиденциальности.

WebAuthn не позволит воспроизвести ключ со стороннего устройства, а также не даст подделать отпечаток пальца или лица конечного пользователя. Отдельно подчёркивается, что у Яндекс ID не будет доступа к данным отсканированных пальцев и лиц, они будут храниться исключительно на устройстве.

Для удобства пользователей аутентифицироваться можно не только со смартфона, подойдут и другие девайсы: «умные» часы, USB-ключи Yubikey и т. п.

Чтобы начать пользоваться новой функциональностью, нужно пройти в личный кабинет и создать ключ для конкретного устройства в разделе «Вход по лицу или отпечатку». Одна учётная запись может создать до 10 ключей на разных девайсах.

 

Напомним, в октябре мы писали, что войти в Яндекс ID теперь можно без пароля, с помощью картинки. А в прошлом месяце стало известно, что Яндекс ID предотвратил 50 млн подозрительных попыток входа в 2023 году.

Стоит также обратить внимание на дополнение программы bug bounty для «умных» устройств от Яндекс. Теперь за баги можно получить миллион рублей.

ИИ научился выявлять депрессию по голосовым сообщениям в WhatsApp

Учёные показали, что депрессию можно распознать буквально «по голосу» — и для этого не нужны ни долгие опросники, ни визит к врачу. Достаточно короткого голосового сообщения в WhatsApp (принадлежит Meta, признанной экстремистской и запрещенной в России).

Исследователи из Медицинской школы Санта-Каса-де-Сан-Паулу и компании Infinity Doctors разработали медицинскую языковую модель, которая с высокой точностью определяет наличие депрессивного расстройства по аудиосообщениям.

Результаты работы опубликованы 21 января 2026 года в открытом журнале PLOS Mental Health.

В эксперименте модель анализировала короткие голосовые сообщения, где участники просто рассказывали, как прошла их неделя. И результат оказался неожиданным: у женщин с диагностированной депрессией точность распознавания превысила 91%.

Это один из лучших показателей среди подобных исследований, особенно с учётом того, что речь идёт о бытовых сообщениях, а не специально записанных медицинских интервью.

Для обучения и тестирования использовались два набора данных с WhatsApp-аудио от носителей португальского. В них вошли записи пациентов с подтверждённым диагнозом «большое депрессивное расстройство» и контрольной группы без депрессии.

Часть сообщений была максимально простой — участникам предлагали досчитать от одного до десяти, другая часть — более естественной: свободный рассказ о прошедшей неделе.

Лучше всего модель справлялась именно со «спонтанной речью». У мужчин точность в этом же сценарии оказалась ниже — около 75%, что авторы связывают с меньшим числом мужских голосов в обучающей выборке и возможными различиями в речевых паттернах. При анализе простого счёта до десяти разница между полами почти исчезала: точность составляла около 80% у женщин и чуть меньше у мужчин.

По словам авторов, модель улавливает тонкие акустические признаки — темп речи, интонации, паузы, — которые сложно заметить человеку, но хорошо видит машинное обучение. И главное — всё это происходит в привычном для людей формате повседневного общения.

Исследователи считают, что при дальнейшем развитии технология может лечь в основу недорогих и удобных инструментов раннего скрининга депрессии, не требующих сложных процедур и не нарушающих повседневные привычки пользователей.

Как отметил старший автор исследования Лукас Маркес, «незаметные акустические особенности обычных голосовых сообщений могут с неожиданной точностью указывать на депрессивные состояния».

Напомним, в недавнем исследовании метаданные WhatsApp показали: мы плохо понимаем, как ведём себя в чатах.

RSS: Новости на портале Anti-Malware.ru