Эксперты предупреждают о лавинообразном росте дипфейк-атак

Эксперты предупреждают о лавинообразном росте дипфейк-атак

Эксперты предупреждают о лавинообразном росте дипфейк-атак

По итогам 2024 года количество атак с использованием технологий дипфейков, преимущественно голосовых, достигло десятков тысяч. Эксперты прогнозируют резкий рост подобных инцидентов в 2025 году, вплоть до увеличения их числа в несколько раз.

Согласно данным МТС VisionLabs, на которые ссылаются «Известия», реальное число таких атак значительно превышает официальные показатели.

«Аудио- и видеодипфейки в 2024 году стали массовым явлением, поскольку преступники усовершенствовали технологии их создания», — отметил в комментарии для «Коммерсанта» Максим Бузинов, руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар».

Как правило, злоумышленники подделывают голос руководителя компании или близкого родственника потенциальной жертвы. По оценкам экспертов, наиболее уязвимыми категориями для таких атак остаются подростки, женщины и пожилые люди.

В 2025 году количество таких случаев может значительно возрасти благодаря появлению систем, способных подделывать голос в режиме реального времени. Первые рабочие версии таких приложений начали появляться уже во второй половине 2024 года.

«Проблема в том, что даже сложные алгоритмы дипфейков теперь можно легко найти в открытом доступе», — предупреждает Татьяна Дешкина, представитель VisionLabs. «Кроме того, порог входа для их создания значительно снизился — появились приложения, позволяющие генерировать дипфейки даже людям без минимального опыта в программировании».

При этом программное обеспечение для изменения голоса доступно практически без ограничений. Уже сегодня можно сгенерировать видеозвонок в режиме реального времени. Хотя качество такого видео пока низкое, это легко списывается на плохое соединение или низкое разрешение камеры.

Тем не менее такие звонки чрезвычайно опасны, так как их можно использовать для вымогательства, оформления кредитов от имени жертвы, получения конфиденциальной информации или шантажа.

Дмитрий Соколов, руководитель службы информационной безопасности компании «МойОфис» и эксперт АРПП «Отечественный софт», подчеркивает, что такие инструменты позволяют имитировать не только голос, но и интонации, что делает дипфейк практически неотличимым от оригинала.

Помимо этого, злоумышленники активно используют методы психологического давления, повышая уровень стресса у жертвы, а также играют на неосведомленности широкой аудитории о технологиях дипфейков.

Эксперты сходятся во мнении, что основная рекомендация для пользователей — перезванивать тому, от чьего имени якобы поступил звонок. Тем временем разработчики активно работают над созданием решений для выявления дипфейков, в том числе в режиме реального времени. Такие продукты уже представили компании MTS AI, Сбер, онлайн-кинотеатр Wink и ГК «Солар».

Google упростила удаление личных данных и интимных фото из поиска

В интернете всегда найдётся кто-то, кто хочет узнать о вас больше, чем следовало бы. К счастью, у Google есть инструменты, которые помогают убрать лишнее из поисковой выдачи. Компания обновила сервис Results About You, который ищет и помогает удалить из выдачи страницы с вашими персональными данными.

Теперь инструмент умеет находить не только адреса и телефоны, но и номера документов, включая паспорт, водительские права и даже номер социального страхования (для США).

Чтобы система знала, что искать, пользователю нужно заранее добавить часть этих данных в настройках. Для водительских прав требуется полный номер, а для паспорта или SSN — только последние четыре цифры. После этого Google будет периодически сканировать выдачу и присылать уведомления, если найдёт совпадения.

Важно понимать: контент не исчезает из Сети полностью, но перестаёт отображаться в поиске Google, что для большинства пользователей уже существенно снижает риски.

Обновление коснулось и инструмента для удаления интимных изображений, опубликованных без согласия человека. Речь идёт как о реальных фото, так и о дипфейках и других сгенерированных ИИ материалах.

Теперь пожаловаться на такие изображения стало проще: достаточно нажать на три точки рядом с картинкой в поиске, выбрать «Удалить результат» и указать, что это интимное изображение. Google уточнит, настоящее это фото или дипфейк, а затем запустит проверку.

Кроме того, теперь можно добавлять сразу несколько изображений в одну заявку, что особенно актуально в эпоху, когда генеративный ИИ позволяют создавать подобный контент буквально за минуты.

Google также добавила возможность мониторинга: если функция включена, система будет автоматически отслеживать появление новых подобных изображений и предупреждать пользователя.

Поиск по ID уже доступен в Results About You. Обновлённый инструмент для удаления интимного контента начнёт появляться в ближайшие дни и будет постепенно распространяться на разные страны.

RSS: Новости на портале Anti-Malware.ru