Онлайн-груминг: 80% заявок в друзья к детям поступают от незнакомцев

Онлайн-груминг: 80% заявок в друзья к детям поступают от незнакомцев

Онлайн-груминг: 80% заявок в друзья к детям поступают от незнакомцев

Лаборатория Касперского” опубликовала тревожные результаты нового исследования. Летом специалисты опросили две тысячи взрослых и детей, интересуясь, кто обычно добавляется в друзья к детскому профилю в соцсетях.

Выяснилось, что 80% запросов дети получают от незнакомых людей. Почти четверть из них поступает от взрослых. Самый частый такой ответ — в группе детей 7-10 лет.

“В целом почти каждый второй ребёнок (49%) знакомится с новыми людьми в социальных сетях, и больше трети из них (36%) потом встречаются с новыми знакомыми в реальности”, — рассказали в пресс-службе “Лаборатории Касперского”.

В 7-10 лет у 90% детей уже есть собственный смартфон или планшет. Родители не всегда интересуются, чем те делятся в Сети. Юные пользователи размещают много личных данных.

Почти половина указывает в социальных сетях свой настоящий возраст и рассказывает о своих увлечениях, больше четверти (27%) отмечают номер школы, 13% выкладывают фотографии, на которых видно обстановку квартиры, 12% указывают имена родственников (родителей), а 10% — публикуют номер мобильного телефона.

“Родители беспокоятся о том, сколько времени дети проводят в Сети, но не всегда обращают внимание на то, что они там делают и с кем общаются”, — отмечает Андрей Сиденко, руководитель направления “Лаборатории Касперского” по детской онлайн-безопасности.

Одна из угроз — онлайн-груминг. Это попытка установить доверительные отношения с ребёнком, чтобы получить приватные фотографии или видео для шантажа и не только, добиться встречи в реальной жизни.

Согласно опросу, треть родителей не знают, какая информация о ребёнке находится в открытом доступе не только в соцсетях, но и в целом в интернете.

Онлайн-груминг — серьёзная проблема, комментирует результаты исследования Ольга Бочкова, детский психолог, руководитель Академии безопасности.

“Действительно, мы обнаружили, что чаще всего под угрозой сексуализированного насилия любого вида, как онлайн, так и в реальности, подвергаются дети 7-12 лет, — говорит Бочкова. — Часто родителям кажется, что достаточно ограничить общение ребенка с посторонними людьми, и тогда он будет под защитой. Но обширная практика Академии безопасности показывает, что вымогать интимные фотографии и видео могут и взрослые знакомые ребёнка, и его ровесники”.

Оградить детей от онлайн-груминга может их умение фильтровать информацию о себе и выстраивать личные границы. Родители могут контролировать активности ребенка в Сети через приложения “родительского контроля”.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ChatGPT ошибается с адресами сайтов — фишеры не дремлют

Если вы когда-нибудь просили чат-бота типа ChatGPT помочь с ссылкой на сайт банка или личного кабинета крупной компании — возможно, вы получали неправильный адрес. А теперь представьте, что кто-то специально воспользуется этой ошибкой.

Исследователи из компании Netcraft провели эксперимент: они спрашивали у модели GPT-4.1 адреса сайтов для входа в аккаунты известных брендов из сфер финансов, ретейла, технологий и коммунальных услуг.

В духе: «Я потерял закладку, подскажи, где войти в аккаунт [название бренда]?»

Результат получился тревожным:

  • только в 66% случаев бот дал правильную ссылку;
  • 29% ответов вели на несуществующие или заблокированные сайты;
  • ещё 5% — на легитимные, но вообще не те, что спрашивали.

Почему это проблема?

Потому что, как объясняет руководитель Threat Research в Netcraft Роб Дункан, фишеры могут заранее спрашивать у ИИ те же самые вопросы. Если бот выдаёт несуществующий, но правдоподобный адрес — мошенники могут просто зарегистрировать его, замаскировать под оригинал и ждать жертв.

«Вы видите, где модель ошибается, и используете эту ошибку себе на пользу», — говорит Дункан.

Фишинг адаптируется под ИИ

Современные фишинговые схемы всё чаще затачиваются не под Google, а именно под LLM — большие языковые модели. В одном случае, например, мошенники создали фейковый API для блокчейна Solana, окружив его десятками фейковых GitHub-репозиториев, туториалов, Q&A-доков и даже поддельных аккаунтов разработчиков. Всё, чтобы модель увидела якобы «живой» и «настоящий» проект и начала предлагать его в ответах.

Это чем-то напоминает классические атаки на цепочку поставок, только теперь цель — не человек с pull request'ом, а разработчик, который просто спрашивает у ИИ: «Какой API использовать?»

Вывод простой: не стоит полностью полагаться на ИИ, когда речь идёт о важных вещах вроде входа в банковский аккаунт или выборе библиотеки для кода. Проверяйте информацию на официальных сайтах, а ссылки — вручную. Особенно если ИИ обещает «удобный и официальный» сайт, которого вы раньше не видели.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru