Facebook грозит штраф в $1,63 миллиарда из-за недавней утечки

Facebook грозит штраф в $1,63 миллиарда из-за недавней утечки

Facebook грозит штраф в $1,63 миллиарда из-за недавней утечки

Европейские регуляторы, отвечающие за соблюдение конфиденциальности, рассматривают возможность оштрафовать Facebook на 1,63 миллиарда долларов в связи с утечкой, затронувшей аккаунты 90 миллионов пользователей.

Ирландская комиссия по защите данных (DPC) требует от социальной сети больше данных об утечке. В частности, ведомство интересует процент затронутых европейских пользователей Facebook.

Соответствующе требование было также озвучено регулятором в Twitter:

Напомним, что несколько дне назад Facebook подтвердила, что киберпреступникам удалось похитить информацию, которая помогла им получить контроль над 90 млн аккаунтов пользователей. В последние месяцы соцсеть изо всех сил старалась вернуть доверие пользователей, и такая ситуация точно не поспособствует этому.

В компании заявили, что этим 90 миллионам (из общего числа в 2,2 миллиарда пользователей) придется заново войти в свои учетные записи. Для 50 миллионов, которые были прямо затронуты этим инцидентом, соцсеть выведет специальное уведомление вверху новостной ленты.

По словам Facebook, злоумышленники могли получить доступ к именам пользователей, городам проживания и гендерной принадлежности. В компании подчеркнули, что преступники могли получить и другую информацию, но говорить об этом рано, поскольку расследование утечки находится на ранних стадиях.

Растущая мощность ИИ-моделей OpenAI ставит под угрозу кибербезопасность

Компания OpenAI предупреждает, что ее ИИ-модели стремительно расширяют возможности, которые пригодны для нужд киберобороны, но в тоже время повышают риски в случае злоупотребления, и это нельзя не учитывать.

Так, проведенные в прошлом месяце CTF-испытания GPT-5.1-Codex-Max показали результативность 76% — почти в три раза выше, чем GPT-5 на тех же задачах в августе (27%).

Разработчик ожидает, что последующие ИИ-модели продолжат этот тренд, и их можно будет использовать для аудита кодов, патчинга уязвимостей, создания PoC-эксплойтов нулевого дня, а также тестирования готовности организаций к сложным, скрытным целевым атакам.

Во избежание абьюзов OpenAI принимает защитные меры: учит свои творения отвечать отказом на явно вредоносные запросы, мониторит их использование, укрепляет инфраструктуру, применяет EDR и Threat Intelligence, старается снизить риск инсайда, внимательно изучает обратную связь и наладила партнерские связи со специалистами по Red Teaming.

В скором времени компания с той же целью запустит программу доверенного доступа (trusted access), в рамках которой киберзащитники смогут с разной степенью ограничений пользоваться новыми возможностями выпускаемых моделей. В настоящее время их приглашают присоединиться к бета-тестированию ИИ-инструмента выявления / коррекции уязвимостей Aardvark, подав заявку на сайте OpenAI.

Для расширения сотрудничества с опытными специалистами по киберзащите будет создан консультационный Совет по рискам — Frontier Risk Council. Компания также взаимодействует с другими ИИ-исследователями через НКО Frontier Model Forum, работая над созданием моделей угроз и выявлением узких мест, способных создать препятствие ИИ-атакам.

RSS: Новости на портале Anti-Malware.ru