53% попыток аутентификации в соцсетях — мошеннические

53% попыток аутентификации в соцсетях — мошеннические

53% попыток аутентификации в соцсетях — мошеннические

53% попыток аутентификации на площадках социальных сетей принадлежат мошенникам. А 25% новых приложений на тех же площадках являются фейковыми. Об этом говорит исследование специалистов компании Arkose Labs.

По словам экспертов, они изучали разного рода атаки, часть которых совершалась ботами, а другая часть — киберпреступниками. Им довелось наблюдать взлом аккаунтов, создание мошеннических учетных записей, спам и прочую злонамеренную активность.

Исследователи выяснили, что 75% атак на площадках соцсетей совершают боты в автоматическом режиме. Наиболее популярной вредоносной деятельностью назван взлом аккаунтов — злоумышленники пытаются добраться до персональных данных добропорядочных пользователей.

«Большой процент атак на аккаунты пользователей социальных сетей объясняется ценностью персональных данных, к которым злоумышленники получат доступ в случае удачной компрометации», — объясняет результаты гендиректор Arkose Кевин Госсчок.

«Поскольку более 50% попыток аутентификации принадлежат мошенникам, мы можем сделать вывод, что атакующие используют автоматизированных ботов для запуска атак».

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru