Socialarks раскрыла ПДн 214 млн юзеров Facebook, Instagram и LinkedIn

Socialarks раскрыла ПДн 214 млн юзеров Facebook, Instagram и LinkedIn

Socialarks раскрыла ПДн 214 млн юзеров Facebook, Instagram и LinkedIn

Китайская компания Socialarks, специализирующаяся на управлении информационными материалами для социальных сетей, допустила серьёзную утечку более 400 ГБ персональных данных, принадлежащих миллионам пользователей Facebook, Instagram и LinkedIn.

Ошибка, надо сказать, уже традиционная — незащищённая база данных ElasticSearch, в которой хранилась конфиденциальная информация 214 миллионов пользователей соцсетей по всему миру. Приблизительно в такой же ситуации недавно оказался японский автопроизводитель Nissan, сотрудники которого не смогли должным образом защитить один из своих Git-серверов.

На незащищённую БД наткнулись исследователи Safety Detectives, занимающиеся поиском уязвимостей веб-сайтов и онлайн-проектов. Если специалисты находят проблему безопасности, владелец ресурса тут же получает соответствующее уведомление.

Именно так — сканируя IP-адреса — эксперты Safety Detectives обнаружили принадлежащий Socialarks ElasticSearch-сервер, который «торчал» в Сеть без какой-либо защиты. Владельцы не только не стали заморачиваться с шифрованием, но и поленились установить хотя бы пароль.

Таким образом, любой случайный пользователь или злоумышленник, наткнувшийся на БД Socialarks, мог просмотреть и скачать персональные данные миллионов пользователей популярных социальных сетей.

По словам Safety Detectives, общий объём базы составил 408 ГБ, при этом там хранилось более 318 миллионов записей данных. Стоит отметить, что это уже второй подобный инцидент в истории Socialarks. В августе 2002 года китайская компания также «слила» данные 150 млн пользователей LinkedIn, Facebook и Instagram.

 

В общей сложности специалисты Safety Detectives нашли в последней БД 11 651 162 Instagram-аккаунтов, 66 117 839 профилей LinkedIn и 81 551 567 учётных записей Facebook. Что касается конкретных данных, раскрытых незащищённым сервером, эксперты выделили следующие:

Instagram

  • Полные имена пользователей.
  • Телефонные номера более 6 млн людей.
  • Адреса электронной почты более 11 млн людей.
  • Ссылка на профиль.
  • Аватар.
  • Описание учётной записи.
  • Число подписчиков и подписок.
  • Страна проживания.
  • Часто используемые хештеги.

Facebook

  • Полные имена пользователей.
  • Информация об аккаунте.
  • Адреса электронной почты.
  • Телефонные номера.
  • Страна проживания.
  • Число лайков и подписок.
  • Идентификатор в Messenger.
  • Ссылка на веб-сайт.

LinkedIn

  • Полные имена пользователей.
  • Адреса электронной почты.
  • Занимаемая должность.
  • Подключённые аккаунты в других соцсетях (например, Twitter).

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

77% корпоративных пользователей вставляют личные данные в запросы к ChatGPT

Согласно новому исследованию компании LayerX, всё больше сотрудников корпораций отправляют в ChatGPT личные и платёжные данные — от номеров карт до информации, по которой можно идентифицировать человека. И нередко делают это с личных, незащищённых аккаунтов, что превращает ИИ-инструменты в потенциальный канал утечки данных.

Отчёт Enterprise AI and SaaS Data Security 2025 отмечает, что 45% сотрудников компаний уже используют генеративный ИИ, а 77% из них копируют и вставляют данные прямо в запросы к чат-ботам. Более чем в 20% случаев среди этих данных встречается персональная или платёжная информация.

LayerX фиксирует такие взаимодействия через корпоративное браузерное расширение, которое отслеживает активность в веб-приложениях. По его данным, 82% всех вставок происходят из личных, неуправляемых аккаунтов, что делает их полностью невидимыми для систем безопасности компании.

Руководитель LayerX Ор Эшед в комментарии для The Register напомнил, что подобные инциденты уже случались: например, в 2023 году Samsung временно запретила сотрудникам пользоваться ChatGPT после того, как один из них случайно загрузил в чат фрагменты внутреннего кода.

По словам Эшеда, такие утечки могут не только повлечь нарушения регламентов, но и вызвать геополитические риски — если данные попадают в зарубежные ИИ-модели, включая китайские.

Интересно, что при этом ChatGPT стал де-факто стандартом корпоративного ИИ. По данным LayerX, более 90% сотрудников, использующих ИИ, обращаются именно к ChatGPT. Для сравнения: Google Gemini используют 15%, Claude — 5%, а Microsoft Copilot — всего 2–3%.

Сама Microsoft недавно удивила многих, заявив, что поддержит использование личных Copilot-аккаунтов в корпоративных средах Microsoft 365 — фактически легализуя «теневые» ИТ-практики, когда сотрудники пользуются неофициальными инструментами.

В целом использование генеративного ИИ в корпоративных сетях растёт: сейчас такие сервисы занимают около 11% всего трафика приложений — почти столько же, сколько почта и онлайн-встречи (по 20%), и больше, чем Slack или Salesforce.

Эксперты LayerX предупреждают: пока пользователи массово несут данные в ChatGPT, CISO-командам стоит уделить внимание SSO и централизованной аутентификации. Без этого контролировать потоки данных и предотвратить утечки становится почти невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru