Мошенники угоняют аккаунты Telegram с помощью фейкового бота GetContact

Мошенники угоняют аккаунты Telegram с помощью фейкового бота GetContact

Мошенники угоняют аккаунты Telegram с помощью фейкового бота GetContact

В марте 2025 года мошенники начали активно использовать новую схему для получения контроля над аккаунтами пользователей Telegram. Под видом популярного приложения GetContact, которое позволяет узнать, как ваш номер записан в чужих телефонных книгах, они запускают фейкового бота.

Пользователям предлагается авторизоваться через Telegram и ввести код подтверждения.

Эти данные перехватываются злоумышленниками, которые сразу получают полный доступ к аккаунту жертвы. Александр Блезнеков, руководитель направления по развитию «Телеком биржи», сообщил «Газете.Ru», что рассылка сообщений о фейковом боте осуществляется с помощью уже взломанных аккаунтов других пользователей.

Настоящее приложение GetContact существует с 2018 года и ранее уже подвергалось критике за риски, связанные с конфиденциальностью личных данных. В 2018 году Роскомнадзор высказывал опасения, что собранная информация может быть использована мошенниками. Эти опасения подтвердились, пусть и спустя почти семь лет.

По словам эксперта, главная опасность взлома аккаунтов Telegram заключается в том, что многие пользователи хранят в мессенджере пароли от различных сервисов, личные документы и другую чувствительную информацию. Получив к ней доступ, мошенники могут украсть деньги, начать шантажировать владельца или перепродать аккаунт на дарквебе.

Для защиты от таких атак Александр Блезнеков рекомендует включить двухфакторную аутентификацию через пароль в настройках Telegram, не отключать уведомления от ботов для своевременного выявления подозрительной активности, а также никогда не сообщать третьим лицам коды из СМС или сообщений от сервисных ботов.

Частое общение с ИИ-ботами не проходит бесследно: из людей посыпался слоп

ИИ настолько стремительно вторгся в нашу жизнь, охватив многие ее аспекты, что начал даже оказывать влияние на манеру изъясняться. Люди, сами того не замечая, все чаще употребляют замысловатые словечки и фразы из репертуара ChatGPT.

Как оказалось, расширение использования больших языковых моделей (БЯМ, LLM) не только пошло им на пользу, но также записало на подкорку живых собеседников странный диалект, выработанный ИИ в ходе генерации текстов.

В июле прошлого года институт Макса Планка опубликовал результаты исследования влияния LLM на речевые коммуникации homo sapiens. Как оказалось, за 18 месяцев с момента запуска ChatGPT словарь пользователей YouTube сильно изменился, обогатившись такими выпадающими из стиля и контекста словами, как underscore (сделать акцент на…), comprehend (осмыслить, объять), bolster (консолидировать), inquiry (изыскание), meticulous (скрупулезный, доскональный, филигранный).

Недавно были выявлены похожие, но более анекдотичные случаи. Так, модераторы Reddit-веток, в которых участники сообществ со смаком обсуждают дерзкие проступки, никак не могут избавиться от слопа — постов, переписанных с помощью ИИ, а также участников дискуссий, разговаривающих в том же духе, которых невозможно отличить от чат-ботов.

Писатель Сэм Крисс (Sam Kriss) изучил последние публикации в New York Times Magazine и обнаружил, что их авторы явно злоупотребляют словом «delve» (штудировать), позаимствованным у ИИ.

Исследователь также отметил, что даже британские парламентарии не брезгуют советоваться с ChatGPT, подготавливая свою речь. Об этом свидетельствует фраза «I rise to speak», однажды озвученная за день 26 раз, — характерная для американского английского, но совершенно неуместная при выступлении в Вестминстерском дворце.

Еще один курьез, подмеченный Киссом: в сентябрьских объявлениях о закрытии Starbucks кофейни были названы «неотъемлемой частью вашего суточного режима, пробуждающей воспоминания», а также «местом, где наше конструктивное общение с партнерами с годами только крепло». Текст был явно навеян общением с ИИ, если только не создан с его непосредственным участием.

RSS: Новости на портале Anti-Malware.ru