ГК Солар учредила первый специализированный венчурный фонд

ГК Солар учредила первый специализированный венчурный фонд

ГК Солар учредила первый специализированный венчурный фонд

ГК «Солар» объявила об учреждении венчурного фонда Solar Ventures. Это первый в России фонд, который будет специализироваться исключительно на поддержке отечественных стартапов в сфере ИБ.

Объектом инвестиций станут проекты на ранней стадии, а также компании, вышедшие на этап масштабирования.

Наибольший интерес для фонда представляют новые подходы к решению задач ИБ, а также команды, способные создавать и развивать продукты в неосвоенных технологических нишах.

Как отметил на пресс-конференции, посвященной открытию Solar Ventures директор по управлению активами и M&A ГК «Солар» Игорь Хереш, группа намерена инвестировать в фонд до 1,1 млрд рублей, что составляет около 5% от общего объема ранее заявленной инвестиционной программы, рассчитанной на период до конца 2025 года.

Фонд открыт к синдицированным сделкам с участием крупных компаний, фондов, также бизнес-ангелов, заинтересованных в развитии и внедрении российских ИБ-решений.

Генеральный директор ГК «Солар» Игорь Ляпунов назвал вложения в ИБ-стартапы важной частью инвестиционной программы группы. Он назвал это направление важной частью неорганического развития «Солар», прежде всего, в долгосрочном горизонте.

Количество ИБ-стартапов в России Игорь Ляпунов оценил в диапазоне 150-200. Он отметил, что стартап-движение в России резко ускорилось после 2022 года, когда ушли зарубежные вендоры, на рынке освободилось много прежде занятых ниш и значительно снизились регуляторные барьеры.

Стартапы, по мнению Игоря Ляпунова, также являются важным кадровым резервом в условиях жесткого дефицита персонала. Плюс ко всему, молодые компании – генератор новых идей.

Игорь Хереш оценил долю российских ИБ-стартапов в треть по количеству компаний и 15% российского ИБ-рынка в денежном выражении. Их общий объем выручки составил 32 млрд рублей по итогам 2023 года. При этом рост оборотов достиг 50% в годовом выражении, что заметно превышает средние по отрасли темпы.

Игорь Хереш подчеркнул:

«“Солар“ стремится стимулировать и поддерживать отрасль кибербезопасности, предлагая молодым компаниям разные форматы взаимодействия, от безвозмездной поддержки до вложений в капитал. Solar Ventures станет ещё одним инструментом поддержки перспективных команд. Одна из целей венчурных инвестиций для нас — участвовать в историях роста стартапов, с которыми в будущем можем рассмотреть другие форматы взаимодействия. Можно сказать, мы закладываем фундамент, делаем “посев“, будущих М&A сделок».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru