Group-IB займется созданием глобальной системы противодействия киберпреступности CyberCop

Group-IB займется созданием глобальной системы антикиберпреступности

Комплексная система противодействия киберпреступности CyberCop представляет собой эффективный инструмент, который позволит правоохранительным органам России и зарубежья бороться с киберпреступлениями на самых тяжелых этапах процесса расследования — сборе доказательств, анализе полученной информации и поиске злоумышленников.

Благодаря корреляции данных о компьютерных преступлениях, методах их совершения, сведений о причастных лицах, расследование будет вестись на основе полной информации. Поэтому подобные технические средства будут способствовать не только защите информации, но и непосредственному снижению самого уровня киберпреступности.

Разрабатываемая комплексная система CyberCop состоит из четырех основных модулей:

  1. CyberCop — центральный модуль, отвечающий за хранение, обработку и корреляцию информации о преступлениях в сфере высоких технологий. Данный модуль системы предназначен для использования только соответствующими правоохранительными органами. 
  2. BrandPointProtection и AntiPhishing — модуль, который позволяет осуществлять автоматизированный мониторинг сети Интернет на предмет незаконного использования корпоративных брендов и осуществления фишинговых атак. 
  3. Fraud Monitor — подсистема, предназначенная для фиксации и предотвращения мошенничества в системах интернет-банкинга. 
  4. Forensic Systems — передовое программное обеспечение и программно-аппаратные устройства для проведения компьютерно-криминалистических исследований и сбора цифровых доказательств.

По итогам анализа представленной заявки руководством Инновационного центра компании Group-IB был присвоен основной регистрационный номер (ОРН) участника проекта — 1110074 по направлению «Стратегические компьютерные технологии и программное обеспечение». Стоит отметить, что Group-IB — третья компания, входящая в LETA Group, которая получила статус резидента Инновационного центра «Сколково». Первой стала компания ASK Labs, разработчик решений в области примышленной автоматизации, а второй — компания HamsterSoft, разработчик массового бесплатного программного обеспечения.

«Получение статуса резидента Инновационного центра “Сколково” позволит нашей компании реализовать амбициозный проект по разработке принципиально нового отечественного продукта на мировом рынке расследований компьютерных преступлений, — говорит Илья Сачков, генеральный директор Group-IB. — Создание системы CyberCop является стратегическим шагом превращения Group-IB из сервис-провайдера в производителя программных и аппаратных решений для глобального противостояния киберпреступности».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru