Средний ущерб финансовых организаций от кибератак приблизился к 1 млн $

Средний ущерб финансовых организаций от кибератак приблизился к 1 млн $

Средний ущерб финансовых организаций от кибератак приблизился к 1 млн $

Потери финансовых организаций от кибератак становятся все более ощутимыми: по результатам исследования «Лаборатории Касперского», средний совокупный ущерб от одного инцидента достиг 926 тысяч долларов США.

Самыми разорительными стали атаки на POS-терминалы: средний урон от них составил 2,1 млн долларов. Следом идут угрозы, связанные со взломом мобильных устройств (1,6 млн долларов ущерба), и целевые атаки (1,3 млн долларов).

Рост потерь вынуждает финансовые организации увеличивать расходы на кибербезопасность. Хотя основной причиной остается необходимость соблюдать требования регуляторов, 63% респондентов считают такое соответствие лишь отправной точкой в построении системы защиты. Другой фактор, который вынуждает компании увеличивать расходы в этой области, — усложнение инфраструктуры. Наконец, расходы на безопасность могут увеличиваться, когда компания осознает недостаточность собственных знаний в этой области, а также по указанию руководства или из-за расширения бизнеса. Резюмируя, можно сказать, что объем средств, выделяемых на информационную безопасность, будет расти и в дальнейшем: в этом уверены 83% опрошенных.

«С учетом значительных потерь от кибератак неудивительно, что финансовые организации увеличивают бюджеты на безопасность. Мы уверены, что успешная стратегия защиты подразумевает сбалансированный подход к распределению ресурсов — средства должны направляться не только на соответствие обязательным требованиям, но и на защиту от целевых атак, повышение осведомленности сотрудников о безопасности и расширение базы знаний о специфических для отрасли угрозах», — прокомментировал результаты исследования Александр Ермакович, руководитель направления Kaspersky Fraud Prevention.

Результаты исследования показали, что финансовые организации концентрируются на изучении киберугроз и проведении аудитов системы безопасности: 73% респондентов считают такие меры эффективными. Однако эксперты «Лаборатории Касперского» при разработке стратегии кибербезопасности советуют принимать во внимание также следующие рекомендации.

  1. Остерегайтесь целевых атак. Они могут проводиться через третьих лиц или ваших подрядчиков. Такие компании часто слабо защищены, что может стать вашей проблемой.
  2. Учитывайте человеческий фактор: злоумышленники очень часто и изобретательно применяют методы социальной инженерии для проникновения в инфраструктуру компании.
  3. Помните, что одно лишь соответствие требованиям безопасности не дает гарантированной защиты. Не менее важно применять комплексный подход к безопасности.
  4. Проводите регулярные тесты на проникновение. Уязвимости инфраструктуры должны быть известны вам раньше, чем до них доберутся злоумышленники.
  5. Принимайте во внимание угрозу инсайдеров. Злоумышленники могут подкупить сотрудников компании, чтобы обойти систему защиты. Противостоять этому можно применением политик ИБ, грамотным разграничением доступа и вспомогательными методами для обнаружения аномальных активностей внутри организации.
AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru