«Забота» соц.сотрудника обошлась в 2 млн. долларов для жителей Лос-Анджелеса

«Забота» соц.сотрудника обошлась в 2 млн. долларов для жителей Лос-Анджелеса

Как стало известно аналитическому центру InfoWatch, бывший сотрудник социальной службы в Лос-Анджелесе признался в незаконном использовании персональных данных почти 200 людей для получения социальных выплат в размере около 2 миллионов долларов.



62-летний Тренг ван Динх работал в отделе социального обеспечения Лос-Анджелеса с 1999 по 2010 г. Он занимался контролем социальных выплат населению. Соответственно, у Динха был доступ к именам, финансовой информации и номерам социального страхования людей, находящихся под его опекой.

В чистосердечном признании Динха говорится, что он регистрировал ненастоящие налоговые вычеты в 2009 и 2010 гг. В некоторых из налоговых вычетов предъявлялись требования по выплатам за коммерческие потери владельцам застрахованного бизнеса, в других – требования по выплатам недееспособным граждан за несуществующие страховые инциденты .Вся фиктивная отчетность находилась под контролем только у мошенника. Он же отдавал поручения по проведению платежей. Таким образом, все махинации Динх проводил в одиночку, естественно, без согласия людей, чьи данные использовались.

197 отчетов, сфальсифицированных Динхом, «добились» выплат на общую сумму 2,212,996 долларов. Банки, предупрежденные о возможном мошенничестве, успели остановить некоторые переводы, но Динх смог получить доступ к 667,034 долларам.

Жертвы незаконного использования их персональной информации испытали затруднения с выплатами по настоящим налоговым вычетам, потому что, согласно записям Налоговой службы, налоговые вычеты на данных лиц уже были зарегистрированы.

По факту мошенничества возбуждено уголовное дело Налоговой службой США. Слушания дела назначено на 27 июня, на котором Динху грозит установленная законом мера наказания – до 10 лет заключения в тюрьме.

Ситуацию комментирует главный аналитик компании InfoWatch Николай Николаевич Федотов: «Современные мошенничества с персональными данными (т.н. "кражи личности") не могут проводиться в одиночку. Они всегда требуют участия нескольких криминальных специалистов и разделения ролей. Поэтому у фигуранта этого дела, скорее всего, есть активные сообщники в банках и даже Налоговой службе. Этот случай – еще один пример высокой востребованности персональных данных злоумышленниками, которые воспользовались своим служебным положением. Определить такого инсайдера с помощью только технических средств крайне трудно, ведь у него есть доступ к корпоративной базе персональных данных на его рабочем месте. Чтобы предупредить такие преступления, служба безопасности должна использовать организационные меры».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru