Мультифакторную аутентификацию в TikTok можно обойти через веб-сайт

Мультифакторную аутентификацию в TikTok можно обойти через веб-сайт

Мультифакторную аутентификацию в TikTok можно обойти через веб-сайт

Спустя месяц после того, как разработчики TikTok внедрили мультифакторную аутентификацию (MFA), один из пользователей обнаружил серьезный недостаток. Оказалось, что нововведение включили только для мобильного приложения, забыв про соответствующий веб-сайт.

Изъян в имплементации MFA открывает возможность для обхода этого слоя защиты аккаунта: злоумышленник может зайти в учётную запись пользователя через веб-ресурс.

Комментируя сложившуюся ситуацию, представитель TikTok объяснил, что компания в ближайшем будущем планирует внедрить MFA и на официальном сайте.

Другими словами, в настоящее время активировавшие мультифакторную аутентификацию пользователи должны учитывать, что она не защитит их должным образом. Это значит, что придётся использовать как можно более сложные пароли, не повторяющиеся ни на каких других площадках.

Однако такая форма атаки тоже ограничивается небольшой функциональностью веб-версии TikTok. Например, через сайт злоумышленник не сможет поменять пароль. В итоге у атакующего остаются две опции: загрузить видео для дефейса аккаунта или продвигать мошеннические рекламные объявления.

В России запретят приложения для подмены голоса и голосов знаменитостей

В России готовятся заблокировать несколько приложений, позволяющих менять голос во время звонков и переписки — в том числе с использованием реалистичных голосов знаменитостей. Соответствующее решение принял Хамовнический суд Москвы, и запрет вступит в силу уже в феврале.

Как сообщает телеграм-канал Baza, суд согласился с позицией прокуратуры, которая указала на высокие риски злоупотреблений такими сервисами.

Речь идёт не только о телефонных розыгрышах: с помощью приложений для подмены голоса, по мнению надзорных органов, можно рассылать ложные сообщения о терактах, совершать звонки с экстремистскими призывами и использовать технологии в мошеннических схемах.

Тема подмены голоса в последнее время действительно всё чаще всплывает в криминальной хронике. Например, злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru