Утечка в бостонском аэропорте: инсайдер торговал персональными данными сотрудников

Утечка в бостонском аэропорте: инсайдер торговал персональными данными сотрудников

В бостонском аэропорте Logan обнаружили работника, который воровал, а затем продавал персональные данные своих сослуживцев. Им оказался сотрудник подразделения Администрации транспортной безопасности США (Transportation Security Administration, TSA), передает компания Perimetrix.

Имя самого работника пока не разглашается. Однако известны имена сообщников. 46-летняя Тина Вайт (Tina M. White) и 48-летний Майкл Вашингтон (Michael J. Washington) получали персональные данные от племянницы Вашингтона, которая, собственно, и работала в отделе кадров аэропорта. Затем данные (имена, даты рождения и номера социального страхования) продавались по цене в $40 за одного человека.

Нашелся и один из пострадавших от кражи личности работников TSA. Лора Гигант (Laura Gigante) заявила, что масштабы махинаций впечатляющи. Используя ее персональные данные, мошенники регистрировали аккаунты в DirectTV, AT&T и NStar.

Отметим, что утечка персональных данных – уже не первый и далеко не самый опасный за последнее время инцидент в TSA. В начале декабря 2009 г. в интернете опубликовали детальное иллюстрированное 93-страничное руководство, касающееся проведения досмотра. А в конце того же месяца в прессу попала секретная инструкция, которую выпустили в связи с терактом на рейсе 253 Northwest Airlines возле Детройта.

«Последние инциденты в Администрации транспортной безопасности США наглядно демонстрируют проблему утечки конфиденциальных данных через собственных сотрудников, – отметил Владимир Ульянов, руководитель аналитического центра Perimetrix. – Понятно, что люди по своим должностям обязанностям должны читать и секретные инструкции, и просматривать персональные данные. Простым ограничением доступа проблему не решить. Необходимо контролировать перемещение информации. Конечно, и в таком случае инсайдер сможет запомнить, а затем воспроизвести часть информации, но уж точно не будет по памяти перерисовывать картинки из многостраничного руководства».

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru