General Motors три месяца скрытно собирала данные 90 000 водителей

General Motors три месяца скрытно собирала данные 90 000 водителей

General Motors три месяца скрытно собирала данные 90 000 водителей

Глава глобальной цифровой трансформации в General Motors Саеджин Пак рассказала, как компания тайно собирала привычки и предпочтения 90 000 пользователей в Лос-Анджелесе и Чикаго. Собранная информация касалась наиболее часто прослушиваемых радиостанций и времени их прослушивания. Данные собирались в машинах благодаря встроенному Wi-Fi.

Компания заявила, что она не продавала эти данные. Однако, судя по всему, в GM рассматривают идею создания целого рынка данных, полученных из машин пользователей. В настоящее время ваша машина может прослушивать вас, делать снимки вас и вашего окружения, а также отслеживать, когда пассажиры находятся в машине, фиксируя Bluetooth-сигналы с мобильных устройств.

Как видите, открывается огромный простор для сбора самых разных данных.

Как объяснила Пак, компания исследует соответствия между радиосигналами и поведением клиентов.

«Мы отслеживали [поведение клиентов — прим. ред.] каждую минуту. Просто потому что могли», — заявила Пак.

«Несмотря на непопулярность радио в современном мире, разные водители все равно слушают различные станции», — продолжила Пак. — «Таким образом, можно отправлять им разного рода рекламу, чтобы зафиксировать разные паттерны поведения».

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru