Банк России выпустил рекомендации по выявлению дипфейков

Банк России выпустил рекомендации по выявлению дипфейков

Банк России выпустил рекомендации по выявлению дипфейков

Регулятор предупредил о возросшей активности мошенников, которые начали использовать нейросети для генерации сообщений с использованием дипфейков, полученных ими разными путями.

«В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет».

«В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва», — так в сообщении, которое размещено в официальном телеграм-канале Банка России описывают типичные схемы злоумышленников.

Мошенники часто используют для рассылки сообщений взломанные учетные записи или их «клоны» с использованием в качестве аватаров фото реальных людей.

Сотрудники регулятора рекомендуют проверять любые просьбы о переводе денег. Например, попытаться связаться с тем человеком, который просит о помощи.

Если возможности позвонить нет, то можно задать в сообщении личный вопрос, ответ на который знает только тот знакомый, который обратился за помощью. Среди характерных признаков дипфейка в Банке России также назвали монотонную речь, неестественную мимики и дефекты звука.

Недавно мы рассуждали, «могут ли дипфейки сделать биометрическую идентификацию бесполезной», а также объясняли, «в чём опасность голосовых дипфейков и атак с их использованием».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Данные ЭКГ можно деанонимизировать с точностью 85%

Исследователи показали, что даже данные электрокардиограммы (ЭКГ), которые часто выкладываются в открытый доступ для медицины и науки, можно связать с конкретным человеком. И сделали это с высокой точностью — до 85 процентов совпадений, используя машинное обучение.

Главная проблема в том, что ЭКГ-сигналы уникальны и стабильны, словно отпечатки пальцев.

Даже если убрать имя и другие «очевидные» идентификаторы, сами сердечные ритмы остаются индивидуальными. А значит, их можно сопоставить с записями из носимых гаджетов, телемедицины или утечек медкарт.

Учёные протестировали метод на данных 109 участников из разных публичных наборов и выяснили: даже с шумом и искажениями система уверенно «узнаёт» людей. Простое обезличивание уже не спасает — риск повторной идентификации слишком высок.

 

Авторы предупреждают: такие атаки не требуют доступа к больничным серверам или инсайдеров. Достаточно сопоставить разные источники информации и применить алгоритмы.

Чтобы снизить риски, исследователи предлагают признать ЭКГ полноценным биометрическим идентификатором, ужесточить правила его обработки и обязательно предупреждать пациентов о возможностях повторной идентификации.

Кроме того, нужно ограничивать свободный обмен «сырыми» файлами между организациями и требовать специальных соглашений и проверок.

И это касается не только ЭКГ. Похожие уязвимости есть у PPG-сигналов (датчики пульса), голоса и даже электроэнцефалограмм. По мере того как носимые устройства и нейроинтерфейсы входят в обиход, объём таких биометрических данных растёт — а вместе с ним и поле для атак.

Иными словами, в здравоохранении нарастает новая угроза: медицинские датчики становятся инструментом не только врачей, но и потенциальных киберпреступников.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru