Хакеры охотятся за интеллектуальной собственностью

Хакеры охотятся за интеллектуальной собственностью

К такому выводу пришли аналитики McAfee в своей новой исследовательской работе "Теневая экономика: интеллектуальный капитал и важные корпоративные данные как новая валюта киберпреступников". Тем самым они зафиксировали тот факт, что внимание и интересы злоумышленников смещаются в сторону сведений, составляющих коммерческую тайну, и другой подобной информации, которую впоследствии можно продать.


Итак, в качестве объектов киберкриминальной торговли все больший вес приобретают секреты производства ("ноу-хау"), маркетинговые планы, исследования, разработки, и даже исходные коды программного обеспечения. Взломщики внедряются в корпоративные сети, не встречая при этом особенного сопротивления, и извлекают нужные им данные; пострадавшие же организации не только не испытывают особенного желания расследовать подобные инциденты, но и стремятся о них умалчивать, не привлекая общественного внимания.

Авторы доклада замечают, что управление ботнетами и проведение атак посредством вредоносного программного обеспечения с последующим извлечением персональных данных индивидуальных пользователей, безусловно, по-прежнему составляют значительную часть теневого "рынка", однако сектор корпоративного шпионажа в последнее время демонстрирует заметный рост - а это говорит об увеличении его важности и значимости в глазах киберпреступников.

При этом проведенные исследования выявили, что факты хищения интеллектуальной собственности довольно редко предаются гласности. Сообщается, что предприятия не хотят публично заявлять об эксплуатации тех или иных уязвимостей, дабы не привлечь к себе внимание других взломщиков или чтобы не уронить свою репутацию в глазах партнеров и клиентов. Более половины компаний, представители которых участвовали в подготовке статистических сведений, сознательно отказывались проводить расследования масштабных инцидентов по причине их высокой стоимости, в то время как не слишком существенные происшествия изучались собственными силами, без привлечения экспертов со стороны. Все это не лучшим образом сказывается на защите, поскольку при подобном подходе недостатки систем безопасности часто остаются так и не исправленными, любезно предоставляя "черные ходы" новым злоумышленникам.

В опросе, результаты которого легли в основу исследования, участвовала 1 тыс. специалистов по информационным технологиям, работающих в предприятиях и организациях США, Великобритании, Японии, Китая, Индии, Бразилии и стран Ближнего Востока.

Полная версия доклада аналитиков McAfee (на английском языке) доступна здесь.

Письмо автору

" />

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru