Мошенники используют телефонные номера школьников для шантажа и запугивания

Мошенники используют телефонные номера школьников для шантажа и запугивания

Мошенники используют телефонные номера школьников для шантажа и запугивания

Специалисты компании «ЕСА ПРО» (входит в ГК «Кросс Технолоджис») зафиксировали рост мошеннических атак, связанных с телефонными номерами школьников. На форумах даркнета увеличился спрос на соответствующие базы данных.

Злоумышленники применяют полученные сведения для запугивания, шантажа и массовых звонков.

Преступники скупают базы данных, создают поддельные аккаунты в соцсетях и мессенджерах, выдавая себя за педагогов или административных работников. Чтобы повысить доверие, они используют фотографии и информацию с официальных сайтов образовательных учреждений.

Получив доступ к контактам детей, мошенники звонят им с угрозами, обвиняют в мнимых нарушениях или сообщают о якобы существующих задолженностях их родителей.

В некоторых случаях персональные данные учащихся оказываются в открытом доступе по вине самих образовательных учреждений — например, при публикации списков победителей олимпиад и конкурсов с указанием ФИО.

Зная имя, школу и класс, мошенники могут с помощью автоматизированных инструментов найти и другие сведения, такие как номер телефона. В основном их интересуют учащиеся престижных школ, так как предполагается, что их родители обладают высокими доходами.

Чтобы минимизировать риски, детям важно объяснить, что не следует отвечать на звонки с незнакомых номеров, а в случае подозрительных сообщений или звонков необходимо сразу обращаться к взрослым. Мошенники часто используют мессенджеры, такие как WhatsApp (принадлежит корпорации Meta, признанной экстремистской и запрещенной в России) и Telegram, что позволяет им скрывать свою личность.

Ребенку важно знать, что просьба о помощи взрослым не является признаком слабости, а является правильным поведением в сложной ситуации. Мошенники нередко манипулируют страхом наказания, поэтому доверительная атмосфера в семье поможет ребенку не бояться сообщать о таких случаях.

Если звонящий представляется сотрудником школы, рекомендуется перепроверить информацию, связавшись с учебным заведением по официальным контактам. Дополнительно можно активировать на телефоне режим «антиспам» и сохранить номера школы для их быстрой идентификации.

Специалисты в области информационной безопасности отмечают, что мошеннические схемы постоянно совершенствуются. Важно регулярно напоминать детям о базовых правилах цифровой безопасности и быть внимательными к возможным угрозам.

Новая вектор атаки заставляет ИИ не замечать опасные команды на сайтах

Специалисты LayerX описали новую атаку, которая бьёт по самому неприятному месту современных ИИ-ассистентов — разрыву между тем, что видит браузер, и тем, что анализирует модель. В результате пользователь может видеть на странице вполне конкретную вредоносную команду, а ИИ при проверке будет считать, что всё безопасно.

Схема построена на довольно изящном трюке с рендерингом шрифтов. Исследователи использовали кастомные шрифты, подмену символов и CSS, чтобы спрятать в HTML один текст, а пользователю в браузере показать совсем другой.

Для человека на странице отображается команда, которую предлагают выполнить, а вот ИИ-ассистент при анализе HTML видит только безобидное содержимое.

Именно в этом и заключается главная проблема. Ассистент смотрит на структуру страницы как на текст, а браузер превращает её в визуальную картинку. Если атакующий аккуратно разводит эти два слоя, получается ситуация, в которой пользователь и ИИ буквально смотрят на разные версии одной и той же страницы.

 

В качестве демонстрации LayerX собрала демонстрационный эксплойт на веб-странице, которая обещает некий бонус для игры BioShock, если выполнить показанную на экране команду. Пользователь, естественно, может спросить у ИИ-ассистента, безопасно ли это. И вот тут начинается самое неприятное: модель анализирует «чистую» HTML-версию, не замечает опасную команду и успокаивает пользователя.

 

То есть атака работает не за счёт взлома браузера или уязвимости в системе, а через старую добрую социальную инженерию, просто усиленную особенностями работы ИИ. Человеку показывают одно, а ассистенту — другое. И если пользователь привык доверять ответу модели, риск становится вполне реальным.

По данным LayerX, ещё в декабре 2025 года техника срабатывала против целого набора популярных ассистентов, включая ChatGPT, Claude, Copilot, Gemini, Leo, Grok, Perplexity и ряд других сервисов. При этом исследователи утверждают, что Microsoft была единственной компанией, которая приняла отчёт всерьёз и полностью закрыла проблему у себя. Остальные в основном сочли риск выходящим за рамки, потому что атака всё же требует социальной инженерии.

RSS: Новости на портале Anti-Malware.ru