Исследователи из Стэнфорда определили опасность телефонных метаданных

Исследователи из Стэнфорда определили опасность телефонных метаданных

Исследователи из Стэнфорда определили опасность телефонных метаданных

Исследователи из Стэнфордского университета продемонстрировали, что из метаданных телефонных звонков легко извлечь важную персональную информацию, и рекомендуют затруднить их получение и анализ. Метаданные телефонного звонка — это дата, время и продолжительность, а также номера его участников.

Считается, что подобная информация не заслуживает такой же серьёзной защиты, как само содержание разговора. В США правоохранительным органам и спецслужбам куда проще получить доступ к метаданным подозреваемого, чем разрешение на прослушивание телефона.

Исследователи из Стэнфорда решили проверить, в самом ли деле метаданные столь безобидны. Для этого они разработали мобильное приложение, которое извлекает и отправляет им хранящиеся в телефоне метаданные. Его установили более 800 добровольцев. В результате в распоряжении учёных оказались сведения о 250 тысячах телефонных звонков и 1,2 миллионах текстовых сообщений, сообщает xakep.ru.

Оказалось, что сопоставляя телефонные номера с общедоступными справочниками, можно немало узнать об участниках эксперимента. Например, в метаданных одного из подопытных обнаружились звонки на номера врача-кардиолога, местной аптеки и службу поддержки устройства для мониторинга сердечной аритмии. Не нужно быть великим сыщиком, чтобы догадаться, что у этого человека больное сердце, и он страдает аритмией. Это медицинская информация, которая не только считается персональной с юридической точки зрения, но и подлежит особенно строгой защите по американским законам.

Другой участник эксперимента несколько раз звонил в магазин огнестрельного оружия, рекламирующий самозарядные винтовки, и обращался в службу поддержки крупного производителя именно таких винтовок. Скорее всего, он делал это не просто так, а потому, что у него есть самозарядная винтовка. Это тоже пример персональной информации.

Исследователи также обращают внимание, что метаданные одного подозреваемого тянут за собой метаданные неожиданно большого количества людей и организаций. Спецслужбы нередко запрашивают разрешение на изучение метаданных не только подозреваемого, но и абонентов на расстоянии двух «прыжков» от него. Иными словами, всех, кто общался с подозреваемым, и всех, кто общался с теми, кто общался с подозреваемым. На первый взгляд, подобные требования резонны, но эксперимент показывает, что таким образом за одним подозреваемым потянутся метаданные примерно 25 тысяч абонентов. Большинство из них заведомо непричастны к расследуемому преступлению.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru