70 000 GPU и $2 млрд инвестиций: амбициозные планы России по ИИ

Российские ЦОДы вырастут в 20 раз за шесть лет.


hsr6b81cuqgua6z06yijoag93mnp5ozy.jpg


К 2030 году мощность российских центров обработки данных для решения задач искусственного интеллекта должна составить более 70 000 в эквиваленте видеокарт Nvidia А100. Такой прогноз озвучил «Ведомостям» вице-президент «Ростелекома» Дарий Халитов. По его словам, речь идёт о прогнозной совокупной потребности в аппаратных мощностях во флопсах (FLOPS, Floating Point Operations Per Second), которые могут быть удовлетворены на основе видеокарт различных производителей.

Наиболее востребованные в ИТ-сфере видеокарты — это графические процессоры (GPU) A100 и H100 от американской Nvidia. A100 предоставляет гибкие возможности масштабирования для вычислительных задач и может использоваться как в рабочих станциях с одним или несколькими GPU, так и в серверах, кластерах, облачных центрах обработки данных и суперкомпьютерах. H100 — это более новая модель, которая, согласно заявлениям Nvidia, превосходит A100 в вычислениях в 3—6 раз.

На российском рынке в основном используются карты A100. Определить объёмы фактического использования таких видеокарт в российских ЦОДах очень сложно, так как вычисления с использованием ИИ в основном проводятся на базе собственной инфраструктуры предприятий.

В российский рынок ИИ, по данным ассоциации «Финтех», за последние 10 лет лидеры рынка инвестировали не менее 650 млрд рублей, а уже к середине 2023 года 95% компаний внедрили ИИ-технологии в основные процессы. Абсолютных объёмов российского рынка ИИ за 2024 год ещё нет, но приблизительная оценка стартует от 780 млрд рублей при учёте роста не менее 30%.

В правительстве России прогнозировали ранее, что российский рынок ИИ в 2025 году достигнет 1 трлн рублей. Дарий Халитов уточнил, что, по оценкам «Ростелекома», к 2030 году рынок видеокарт вырастет в 6—7 раз.

Как отмечают эксперты издания, объём инвестиций в заявленные объёмы видеокарт будет зависеть от того, будут устанавливаться ускорители только в существующие ЦОДы или в том числе будет строительство новых ЦОДов. Для новых ЦОДов определяющие критерии цены — это доля ИИ в планируемой нагрузке и регион размещения. Вилку на 70 000 Nvidia A100 или аналогов при инвестициях как в текущие ЦОДы, так и с долей строительства новых можно оценить в $1,5—2 млрд.

Согласно данным iKS-Consulting, на конец 2024 года количество стойко-мест в российских ЦОДах составляет 82 000. В 2025 году планируется ввести от 12 000 до 15 000 стойко-мест с учётом того, что вводы ЦОДов периодически переносятся.

По оценкам аналитиков, текущее состояние используемых российскими ЦОДами карт составляет 3000—4000, «эквивалентных A100». В мире на ИИ-мощности в ЦОДах приходится 10—20%, в России меньше. Доля ИИ-мощностей в мире в новых развертываниях составляет порядка 25—35%. Под задачи ИИ обычно используются высоконагруженные стойки от 15 до 50 кВт.

В России сейчас используется разнообразие ускорителей ИИ для обучения и инференса. Прежде всего это американские карты, попавшие в страну до 2022 года, такие как Nvidia, AMD (Instinct MI) и в меньшей степени — Intel. На сегодня легче «добываются» карты китайских производителей. По мнению экспертов, китайские ИИ-ускорители проигрывают картам Nvidia примерно в 3—8 раз в задачах обучения и в 2—5 раз в инференсе.

Среди отечественных разработок выделяются нейроускорители компании «НТЦ Модуль», это не GPU, а NPU (Neural Processing Unit, предназначен для задач ИИ и машинного обучения). По функционалу их можно сравнить с Huawei Ascend Lite или с Google Edge TPU. Число российских карт может вырасти в ближайшие годы, если сохранится доступ российских разработчиков к зарубежным контрактным фабрикам.

Современным стандартом для обучения нейросетей считается H200, превосходящий A100 в 15 раз. Тем не менее, даже целевой показатель в 70 000 карт A100 выглядит скромно на международном фоне — для сравнения, Tesla располагает примерно 350 000 карт H200. Крупнейшие российские технологические компании сейчас суммарно владеют около 10 000 высокопроизводительных видеокарт. Например, «Яндекс» по состоянию на конец 2021 года использовал 3500 карт А100 в своих трёх суперкомпьютерах.

Эксперты отрасли считают прогнозы «Ростелекома» достижимыми, но отмечают высокую динамику рынка и сложность долгосрочных прогнозов относительно функциональности будущих ускорителей и требований к обучению искусственного интеллекта.