Социальные боты причастны к воровству личных данных

Социальные боты причастны к воровству личных данных

Согласно результатам последнего исследования, проведенного специалистами из канадского Университета Британской Колумбии в Ванкувере, так называемые "социальные боты" - программы, созданные для имитации поведения людей в социальных сетях, способны эффективно похищать персональные данные пользователей. Так, в одной лишь Facebook канадские исследователи при помощи "социо-ботов" получили почти 250 гигабайт информации о пользователях этой сети.



Двухмесячное исследование проводилось с целью определить, насколько уязвимы социальные сети и их пользователи перед лицом крупномасштабных операций, связанных с похищением личных данных. Как можно понять из полученных 250 гигабайт данных, очень уязвимы.

Канадские социологи говорят, что исключительно в академических целях запустили в социальные сети 102 различных "социо-бота", которые завели себе персональные страницы с фотографиями, а сам функционал ботов позволял им "стучаться" к другим пользователям и отправлять им сообщения с инвайтами. Запущенные боты разослали пользователям 5053 сообщения, причем каждый бот был ограничен отправкой 25 сообщений в день, чтобы у Facebook не сработала антиспамерская система. За первые несколько дней теста 19% инвайтов (976 штук) были приняты пользователями, передает cybersecurity

За следующие полтора месяца боты отправили еще 3517 запросов данных своим новым "друзьям" по Facebook. Из этого числа 2079 пользователей такие данные предоставили. Для того, чтобы повысить шансы на выдачу данных, боты использовали психологический прием под названием "триадный принцип закрытия", предусматривающий заведение некоего общего с пользователем друга в сети.

Канадские исследователи говорят, что социальные сети оказываются чрезвычайно уязвимы для крупномасштабных кампаний по хищению данных. Примерно 8 из 10 пользователей клюют на какую-либо уловку ботов. "На примере социальной сети Facebook мы показали, что получать персональные данные совсем несложно, более того этот процесс можно автоматизировать и проводить в чрезвычайно больших масштабах. Самим пользователям и операторам сетей стоит задуматься над этим", - говорится в результатах исследования, которые должны быть опубликованы на будущей неделе.

По словам авторов исследования, социальные механизмы защиты в Facebook и иных соцсетях существуют, но они недостаточно интеллектуальны и пока не могут отличить настоящего пользователя от бота, даже если последний действую полностью на автомате и без участия живого человека. Также в исследовании говорится, что в будущем на базе этой или ей подобных методик могут быть реализованы настоящие кампании по краже данных у десятков или даже сотен тысяч людей.

97% компаний в России внедряют ИИ, но 54% не видят его ценности

UserGate изучила, как российские компании внедряют инструменты на базе ИИ и что мешает делать это быстрее. Опрос прошёл в январе 2026 года, в нём участвовали 335 топ-менеджеров компаний с выручкой от 100 млн рублей в год. Картина получилась довольно показательная: 97% компаний уже используют ИИ, тестируют его в пилотах или собираются внедрять в ближайшее время.

То есть искусственный интеллект из разряда «модного тренда» окончательно перешёл в категорию рабочих инструментов.

Чаще всего ИИ применяют для вполне прикладных задач. На первом месте — генерация отчётов и аналитики (42%). Далее идут оптимизация сетевой инфраструктуры (38%), анализ больших массивов логов (37%), ускорение расследований инцидентов (35%) и повышение эффективности Help Desk (32%).

Иными словами, бизнес в первую очередь использует ИИ там, где он помогает сэкономить время и ресурсы или усилить функции безопасности.

Интересно, что приоритеты зависят от масштаба компании. В корпоративном сегменте более 60% респондентов указали анализ больших логов как ключевое направление — что логично при объёмах данных в крупных ИТ-ландшафтах. В среднем бизнесе на первый план выходит оптимизация сетевой инфраструктуры (45%).

При этом 7% компаний пока вообще не рассматривают внедрение ИИ. Главные причины — неясная ценность технологии (54%) и неопределённость рисков (38%). Также среди барьеров называют отсутствие чёткого распределения ответственности (29%), ограниченные бюджеты (29%) и нехватку экспертизы (17%). По сути, речь идёт не столько о скепсисе, сколько о нехватке понимания, как именно внедрять ИИ и как управлять связанными с ним рисками.

Отдельно респондентов спросили, какие технологии окажут наибольшее влияние на кибербезопасность в ближайшие 12 месяцев. Лидером стали ИИ и машинное обучение — их назвали около половины представителей коммерческого и государственного сегментов. Даже те компании, которые пока осторожничают с практическим внедрением, всё равно рассматривают машинное обучение как ключевой фактор трансформации ИБ в среднесрочной перспективе.

Как отмечает руководитель отдела стратегической аналитики UserGate Юлия Косова, бизнес уже активно использует ИИ в операционных и защитных сценариях, но ожидания рынка зачастую опережают текущую практику. Дальнейший эффект, по её словам, будет зависеть от зрелости процессов, качества данных и способности управлять рисками.

RSS: Новости на портале Anti-Malware.ru