Capital One заплатит $80 млн за утечку данных граждан США

Capital One заплатит $80 млн за утечку данных граждан США

Capital One заплатит $80 млн за утечку данных граждан США

Американская компания Capital One, специализирующаяся на кредитных картах и автокредитах, должна будет выплатить $80 миллионов за прошлогоднюю утечку персональных данных, принадлежащих более 100 млн граждан США.

Соответствующий штраф на холдинг наложило Министерство финансов США, по словам которого Capital One не смогла обеспечить достойный уровень управления рисками перед тем, как перевести ИТ-операции в публичный облачный сервис.

По мнению Минфина США, компания должна была имплементировать системы, обеспечивающие сетевую безопасность и предотвращающие потерю важных данных.

Помимо этого, Capital One оставила непропатченные уязвимости в облачном хранилище, что и привело к крупнейшей утечке персональной информации американцев. Согласно данным расследования, хакер-одиночка смог похитить данные карт граждан.

Также в руки преступника попали 140 тысяч номеров социального страхования и 80 тыс. номеров банковского счёта.

Во взломе обвинили бывшую сотрудницу Amazon 33-летнюю Пейдж Томпсон. Следователям известно, что девушка действовала под псевдонимом «erratic».

Изначально преступница опубликовала подробности утечки на GitHub. После этого один из пользователей площадки уведомил Capital One о киберинциденте, что позволило быстро принять меры в отношении допущенных дыр в безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru