Instagram вводит новую функцию, помогающую вернуть взломанные аккаунты

Instagram вводит новую функцию, помогающую вернуть взломанные аккаунты

Instagram вводит новую функцию, помогающую вернуть взломанные аккаунты

Instagram постепенно вводит в эксплуатацию новую функцию, которая поможет пользователям защитить скомпрометированные аккаунты и лишить контроля взломавших их злоумышленников. Также соцсеть дала ряд рекомендаций по защите учёток

Нововведение получило имя Security Checkup, а его основная задача — выводить пользователю предупреждение каждый раз, когда соцсеть фиксирует подозрительную активность учётной записи.

Такие уведомления предложат ряд шагов, с помощью которых юзеры смогут вернуть контроль над аккаунтами и лучше защитить их. Например, можно будет просмотреть историю входа в учётную запись, проверить недавнюю активность и информацию профиля, а также обновить данные, необходимые для восстановления аккаунта (телефонный номер, адрес электронной почты и т. п.).

 

К слову, похожая система восстановления контроля над учётными записями уже реализована в Facebook. Пользователи Instagram, по словам самой социальной сети, получат эту функцию в течение нескольких недель.

Помимо этого, представители Instagram посоветовали не пренебрегать и другими методами защиты аккаунта: двухфакторной аутентификацией, функцией Login Request и актуальными данными для восстановления профиля.

Дипфейки невозможно распознать без специальных технических средств

Сгенерированные нейросетями изображения, аудио- и видеоматериалы практически невозможно распознать без специальных технических средств. В МВД России заявили, что эксперты-криминалисты используют для этого специализированные детекторы.

О методах выявления дипфейков рассказал в интервью ТАСС начальник Экспертно-криминалистического центра МВД России генерал-лейтенант полиции Вадим Казьмин.

По его словам, современные дипфейки — будь то видео, аудио, изображения или даже прямые трансляции — отличаются высокой степенью реалистичности. Без применения специальных инструментов отличить их от подлинных материалов практически невозможно.

«Мы прекрасно осведомлены не только о возможностях нейросетей, но и об их недостатках. С помощью современных нейросетевых детекторов эксперт может распознавать различные манипуляции с голосовыми сообщениями, видеозаписями и фотографиями», — отметил руководитель экспертного подразделения МВД.

Массовое использование дипфейков в преступных схемах стало заметным в середине 2025 года. Тогда широкое распространение получила схема с просьбами о срочной финансовой помощи якобы от знакомых или родственников жертвы — с использованием поддельных голосов и видеоизображений. В тот период фальшивки зачастую были низкого качества и их можно было выявить по характерным артефактам.

Кроме того, дипфейки активно применяются в мошеннических сценариях с ложными свиданиями (Fake Date). Уже в феврале 2025 года было зафиксировано не менее десяти подобных случаев, причинивших значительный ущерб.

RSS: Новости на портале Anti-Malware.ru