Затраты на цифровизацию в 2025 году превысили 7 трлн рублей

Затраты на цифровизацию в 2025 году превысили 7 трлн рублей

Затраты на цифровизацию в 2025 году превысили 7 трлн рублей

По предварительной оценке Института статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ, в 2025 году объем внутренних затрат на развитие цифровой экономики достиг 7,1 трлн рублей, что соответствует 3,3% ВВП страны. По сравнению с 2024 годом показатель вырос на 6,5%.

Данные ИСИЭЗ НИУ ВШЭ приводит «Коммерсантъ». В расчеты включены расходы организаций на закупку оборудования, программного обеспечения, цифрового контента, обучение сотрудников, оплату услуг связи и другие направления, а также траты населения на цифровые товары и сервисы.

Основную часть затрат обеспечили организации — 4,5 трлн рублей, что на 6,4% больше, чем годом ранее. При этом темпы роста заметно снизились по сравнению с рекордным 2024 годом, когда они достигали 29,3%. Авторы исследования связывают замедление с эффектом «высокой базы», а также с изменением валютного курса.

Расходы населения на цифровые товары и услуги в 2025 году оценены в 2,6 трлн рублей — это на 8,3% больше показателя 2024 года.

Отдельно отмечается рост закупок тиражного российского ПО: компании увеличили их в 3,8 раза. В 2020–2024 годах бизнес активно инвестировал во внутреннюю разработку. Одновременно с 2020 года сокращается доля расходов на приобретение и обслуживание оборудования — с 46% до 33%. Также втрое уменьшилась доля затрат на услуги связи — с 21% до 7%.

Экс-разработчик Windows показал работу ИИ на компьютере из 1970-х

Бывший разработчик Windows Дэйв Пламмер напомнил о том, что вокруг искусственного интеллекта слишком много лишней мистики. На этот раз специалист показал, как базовые принципы работы современных нейросетей можно продемонстрировать буквально на музейном железе — PDP-11, системе конца 1970-х с процессором 6 МГц и 64 КБ оперативной памяти.

Для эксперимента использовалась модель ATTN/11 — это одноголовый однослойный трансформер, полностью написанный на ассемблере PDP-11.

Проект создал Damien Buret, и его идея довольно проста: не гнаться за мощностью, а показать трансформер в максимально «разобранном» и понятном виде.

Задача у модели с виду совсем скромная — научиться переворачивать последовательность из восьми цифр. Но, как объясняет Пламмер, здесь важен не сам фокус с числами, а принцип: системе нужно уловить структуру правила, а не просто запомнить отдельные примеры. Именно в этом, по сути, и проявляется базовая механика, на которой работают большие языковые модели.

Особенно интересно то, насколько крошечной получилась эта демонстрация. В модели всего 1216 параметров, она использует fixed-point arithmetic, а вычисления для прямого прохода ужаты до 8-битной точности.

Модель смогла добиться 100% точности на задаче разворота последовательностей после примерно 350 шагов обучения. На PDP-11/44 с кеш-платой на это ушло около 3,5 минуты. Для машины такого возраста результат выглядит невероятно хорошим.

Пламмер, в сущности, пытался доказать, что суть современного ИИ в очень большом количестве арифметики, повторений и постепенной коррекции ошибок. Просто сегодня всё это происходит в несравнимо большем масштабе и на куда более мощном железе.

Заодно история красиво бьёт ещё в одну точку: в эпоху, когда индустрия всё чаще упирается в дефицит вычислительных ресурсов, старое доброе искусство оптимизации снова становится особенно ценным.

RSS: Новости на портале Anti-Malware.ru