ИБ-бюджеты нарастили больше половины российских компаний

ИБ-бюджеты нарастили больше половины российских компаний

ИБ-бюджеты нарастили больше половины российских компаний

Как показало исследование «Киберпротекта», 53,8% организаций увеличили свои расходы после известных кейсов кибератак в СМИ. Однако более трети (37,8%) организаций увеличили бюджет только на 10%, на 25% – 42% компаний и учреждений. Только каждая пятая компаний увеличила ИБ-бюджет на 50% и более.

В исследовании приняли участие представители российских компаний и учреждений разных отраслей. Среди респондентов — ИТ- и ИБ-директора, ИБ- и ИТ-специалисты, руководители и менеджеры среднего звена.

Поводом для проведения исследования стала волна инцидентов, которые произошли летом текущего года и их влияние на ИБ-бюджеты. Это, например, атака на сайты госучреждений 3 июня или заражение шифровальщиком инфраструктуры розничной сети «Верный» в тот же день.

По большей части организации инвестировали в программное обеспечение — 82% опрошенных, 60,9% респондентов сообщили, что вложили средства в обучение сотрудников, 34,4% обновили оборудования, треть предприятий (увеличили численность специалистов подразделения кибербезопасности  и 30,5% — провели аудит систем ИТ/ИБ.

«Мы живем в реальности непрерывного противостояния киберпреступников и служб информационной безопасности, при этом злоумышленники постоянно развивают свои технологии, угрозы становятся всё более сложными, убытки от них все более значительными. Публичные кейсы успешных хакерских атак подталкивают организации к тому, чтобы уделять больше внимания информационной безопасности: проводить тренинги для сотрудников, расширять штат ИБ, инвестировать в новое оборудование и ПО, в то время как это должно быть частью стратегии любого бизнеса и выполняться системно и постоянно. Поэтому обмен информацией об атаках, методах защиты и успешных практиках важен для создания безопасной цифровой среды нашей экономики», — прокомментировала результаты опроса Елена Бочерова, исполнительный директор компании «Киберпротект».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru