Мошенники имитируют взлом Госуслуг для кражи денег

Мошенники имитируют взлом Госуслуг для кражи денег

Мошенники имитируют взлом Госуслуг для кражи денег

В России набирает популярность новая мошенническая схема: мошенники имитируют взлом личного кабинета на Госуслугах и взятие микрозаймов, чтобы заставить потенциальную жертву перевести средства на «безопасный счет».

Как рассказала «РИА Новости» коммерческий директор SafeTech Дарья Верестникова, обычно первый мошеннический звонок идет через WhatsApp (принадлежит корпорации Meta, признанной экстремистской организацией и запрещенной в России) от имени «Социального фонда», якобы для записи на перерасчет пенсии.

У потенциальной жертвы просят код МТС ID. После чего поступает звонок якобы от службы поддержки Госуслуг о попытке получить доступ к личному кабинету. Для повышения доверия злоумышленники предлагают жертве записать разговор и обратиться в полицию.

«Параллельно идут поддельные смс о входе в личный кабинет разных МФО, якобы пуши о переводе денег в разные банки из МФО (видимо, по одобренным займам). И когда жертва атаки начинает уже всерьез паниковать, с ней связываются или "полиция", или "банк", и для защиты средств она сама переводит все свои деньги на "безопасный счет" или же передает подставному "курьеру из Центробанка" наличными», — так Дарья Верестникова описала дальнейший сценарий мошенничества.

При этом злоумышленники даже не пытаются получить доступ к учетной записи на портале Госуслуг. Соответственно, никаких микрокредитов от имени потерпевшего также никто не берет.

«Цель этой активности – заставить человека поверить, что он реально стал жертвой мошенников, запаниковать, и тогда в состоянии аффекта он уже будет делать то, что говорят злоумышленники», — предупреждает Дарья Верестникова.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

77% корпоративных пользователей вставляют личные данные в запросы к ChatGPT

Согласно новому исследованию компании LayerX, всё больше сотрудников корпораций отправляют в ChatGPT личные и платёжные данные — от номеров карт до информации, по которой можно идентифицировать человека. И нередко делают это с личных, незащищённых аккаунтов, что превращает ИИ-инструменты в потенциальный канал утечки данных.

Отчёт Enterprise AI and SaaS Data Security 2025 отмечает, что 45% сотрудников компаний уже используют генеративный ИИ, а 77% из них копируют и вставляют данные прямо в запросы к чат-ботам. Более чем в 20% случаев среди этих данных встречается персональная или платёжная информация.

LayerX фиксирует такие взаимодействия через корпоративное браузерное расширение, которое отслеживает активность в веб-приложениях. По его данным, 82% всех вставок происходят из личных, неуправляемых аккаунтов, что делает их полностью невидимыми для систем безопасности компании.

Руководитель LayerX Ор Эшед в комментарии для The Register напомнил, что подобные инциденты уже случались: например, в 2023 году Samsung временно запретила сотрудникам пользоваться ChatGPT после того, как один из них случайно загрузил в чат фрагменты внутреннего кода.

По словам Эшеда, такие утечки могут не только повлечь нарушения регламентов, но и вызвать геополитические риски — если данные попадают в зарубежные ИИ-модели, включая китайские.

Интересно, что при этом ChatGPT стал де-факто стандартом корпоративного ИИ. По данным LayerX, более 90% сотрудников, использующих ИИ, обращаются именно к ChatGPT. Для сравнения: Google Gemini используют 15%, Claude — 5%, а Microsoft Copilot — всего 2–3%.

Сама Microsoft недавно удивила многих, заявив, что поддержит использование личных Copilot-аккаунтов в корпоративных средах Microsoft 365 — фактически легализуя «теневые» ИТ-практики, когда сотрудники пользуются неофициальными инструментами.

В целом использование генеративного ИИ в корпоративных сетях растёт: сейчас такие сервисы занимают около 11% всего трафика приложений — почти столько же, сколько почта и онлайн-встречи (по 20%), и больше, чем Slack или Salesforce.

Эксперты LayerX предупреждают: пока пользователи массово несут данные в ChatGPT, CISO-командам стоит уделить внимание SSO и централизованной аутентификации. Без этого контролировать потоки данных и предотвратить утечки становится почти невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru