Модели Qwen от Alibaba доминируют на Hugging Face с рекордными загрузками

К марту 2026 года модели Qwen от Alibaba достигли впечатляющих 942,1 миллиона загрузок на платформе Hugging Face, что в два раза превышает показатель ближайшего конкурента — модели Llama с 476 миллионами скачиваний. Эти данные представлены в свежем отчёте ATOM Report, опубликованном 8 апреля на arXiv, где проанализированы около 1500 ключевых open-source моделей и тенденции их использования.

Превосходство Qwen начало проявляться ещё в сентябре 2025 года, когда количество загрузок моделей было практически равным — около 325 млн у Qwen и 323,7 млн у Llama. Однако к февралю 2026 года разрыв существенно увеличился: Qwen фиксировал 153,6 миллиона загрузок в месяц, став де-факто стандартом для значительной части сообщества.

Особенно показательна динамика с файн-тюнами — специализированными адаптациями моделей под конкретные задачи. Доля Qwen среди новых файн-тюнов выросла с 1% в январе 2024 года до 69% в феврале 2026-го, в то время как у Llama она снизилась с 44% до 11%. Это свидетельствует не только о популярности, но и о широком производственном использовании Qwen.

Американские игроки рынка, включая NVIDIA, Ai2 и IBM, вместе взятые, набрали около 56 миллионов загрузок, что значительно уступает показателям одной только Qwen. Отчёт подчёркивает, что китайские модели опередили американские аналоги ещё летом 2025 года и продолжают усиливать своё преимущество.

Успех Qwen объясняется выходом версии 2.5 в сентябре 2024 года, которая предложила разнообразие размеров моделей от 0,5 до 72 миллиардов параметров, открытую лицензию Apache 2.0 и качество, сопоставимое с закрытыми решениями. В начале 2025 года DeepSeek подтвердил высокий уровень китайских AI-лабораторий при меньших затратах, что сместило центр open-source AI из Кремниевой долины в Ханчжоу и Шэньчжэнь.

Вопрос о том, насколько количество загрузок отражает реальные продакшн-внедрения, остаётся открытым, так как крупный бизнес часто использует закрытые API и собственные развертывания, не учитываемые в статистике. Тем не менее рост доли файн-тюнов на базе Qwen — более надёжный индикатор практического применения модели.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю об искусственном интеллекте с творческой стороны.