Google наняла главного врага Sony и Apple

Хакер, взломавший PlayStation 3 и iPhone, пошел работать в Google

Хакеру Джорджу Хоцу (George Hotz), который первым взломал смартфон iPhone и консоль PlayStation 3, предложили работу в Google. Специалист будет трудиться в отделе Project Zero, чья задача состоит в поиске уязвимостей популярного софта.

Согласно данным Wired, Хоц согласился на стажировку в корпорации. В отделе он работает с командой опытных экспертов в области взлома и обнаружения уязвимостей. По словам главы Project Zero Криса Эванса (Chris Evans), Хоц будет искать ошибки не только в софте Google, но и других производителей программ.

Это касается уязвимостей, которые используются как преступниками, так и государственными структурами. Корпорация выделила ресурсы на исправление продукции других фирм, потому что их ПО имеет огромное значение для нормальной работы Google.

Эванс признался, что инициатива Project Zero не принесет корпорации особой прибыли, но опыт работы с талантливыми хакерами для неё полезен, даже если специалисты не будут сотрудничать с Project Zero в дальнейшем.

Если команда Google найдет баг, она оповестит об этом компанию и даст ей от 60 до 90 дней на устранение ошибки. В противном случае, сведения об уязвимости опубликуют в открытом доступе.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

77% корпоративных пользователей вставляют личные данные в запросы к ChatGPT

Согласно новому исследованию компании LayerX, всё больше сотрудников корпораций отправляют в ChatGPT личные и платёжные данные — от номеров карт до информации, по которой можно идентифицировать человека. И нередко делают это с личных, незащищённых аккаунтов, что превращает ИИ-инструменты в потенциальный канал утечки данных.

Отчёт Enterprise AI and SaaS Data Security 2025 отмечает, что 45% сотрудников компаний уже используют генеративный ИИ, а 77% из них копируют и вставляют данные прямо в запросы к чат-ботам. Более чем в 20% случаев среди этих данных встречается персональная или платёжная информация.

LayerX фиксирует такие взаимодействия через корпоративное браузерное расширение, которое отслеживает активность в веб-приложениях. По его данным, 82% всех вставок происходят из личных, неуправляемых аккаунтов, что делает их полностью невидимыми для систем безопасности компании.

Руководитель LayerX Ор Эшед в комментарии для The Register напомнил, что подобные инциденты уже случались: например, в 2023 году Samsung временно запретила сотрудникам пользоваться ChatGPT после того, как один из них случайно загрузил в чат фрагменты внутреннего кода.

По словам Эшеда, такие утечки могут не только повлечь нарушения регламентов, но и вызвать геополитические риски — если данные попадают в зарубежные ИИ-модели, включая китайские.

Интересно, что при этом ChatGPT стал де-факто стандартом корпоративного ИИ. По данным LayerX, более 90% сотрудников, использующих ИИ, обращаются именно к ChatGPT. Для сравнения: Google Gemini используют 15%, Claude — 5%, а Microsoft Copilot — всего 2–3%.

Сама Microsoft недавно удивила многих, заявив, что поддержит использование личных Copilot-аккаунтов в корпоративных средах Microsoft 365 — фактически легализуя «теневые» ИТ-практики, когда сотрудники пользуются неофициальными инструментами.

В целом использование генеративного ИИ в корпоративных сетях растёт: сейчас такие сервисы занимают около 11% всего трафика приложений — почти столько же, сколько почта и онлайн-встречи (по 20%), и больше, чем Slack или Salesforce.

Эксперты LayerX предупреждают: пока пользователи массово несут данные в ChatGPT, CISO-командам стоит уделить внимание SSO и централизованной аутентификации. Без этого контролировать потоки данных и предотвратить утечки становится почти невозможно.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru