如果说AI时代新增的算力需求,是阿里云收入增长的重要支撑,那么基于算力底座构建的全栈智能解决方案,则是市场重估阿里云的核心逻辑。根据阿里最新财报,阿里云的AI相关收入占比第一次突破了 20%,这意味着现在阿里云挣的每五块钱里,就有一块来自AI。
作为中国AI云的领军人,阿里云AI应用孵化平台这块拼图正在成形,2022年,阿里云在业界首次提出“模型即服务 (MaaS)”理念,提倡以模型为中心的AI开发新范式。
阿里云一直在推全栈AI,最底层是芯片和算力,中间是通义大模型,再往上是各种应用和工具,客户付费买一个能直接落地的解决方案,也正因为有越来越多这样的应用撑起来,阿里云的AI收入的占比才被拉高。
AI收入的质量和传统云完全不同,过去云毛利率低、价格透明,容易陷入价格战,而AI服务的毛利通常更高,客户一旦用上,就很难轻易换供应商。把客服、营销、内部流程都搬到AI平台上,再想换供应商,几乎得推倒重来,对阿里云来说,这意味着收入的稳定性更强。
模型开源,奠定了阿里云作为AI应用孵化平台的地位。企业无需自己搭建服务器来运行AI,而是通过互联网直接调用云厂商提供的AI能力,这为阿里云带来了大量客户。并且通过吸引更多开发者和应用在平台上搭建生态,推动底层云资源的持续使用,从而带动云厂商的收入增长。
大模型的出现,推动了AI应用在平台上生根发芽,助力阿里云把平台模式真正跑通,实现技术标准化和生态活力,截至去年底,阿里云调用API的客户,上云的比例已高于大盘。
目前,阿里云已成为中国大模型的公共AI算力底座,中国一汽、智联招聘、小鹏汽车等众多知名企业客户通过阿里云接入通义大模型。阿里云推动的通义千问开源策略,成为全球AI生态的转折点,通义千问开源后,全球衍生模型数量超过10万个,下载量突破3亿次,80%的中国科技公司和60%的A股公司接入阿里云。
阿里云从硬件服务商转型为AI生态平台,有望成为在AI时代放大平台乘数效应的云计算玩家,其估值逻辑也开始逐步向AWS、Azure、Oracle靠拢。
今年年初,DeepSeek掀起了新一轮AI基建浪潮,当前阿里云在大模型领域优势显著,在AI核心技术领域,阿里云打造的通义大模型系列已位列国际一流开源模型阵营,其衍生开发的模型变体突破9万款。
阿里的Qwen系列模型,已经在全球开发者中变得流行。由于使用Qwen系列模型,一些企业选择跑在阿里云的全栈AI基础设施上。比如美国亚马逊布局的人形机器人,采用DeepSeek、阿里通义千问等开源的大语言模型进行机器人的操控;英伟达正式开源了全新的代码推理模型OpenCodeReasoning,选用了阿里通义千问大模型作为基础底座。
阿里云开源的Qwen3-Coder,犹如惊雷出现,不需要订阅费用,具有跨时代意义的。在整条AI产业链上,编程能力是AI技术的“元能力”,它既是制约AI技术的瓶颈,也是撬动生态主导权的杠杆,用的越多越好用,越好用用的越多,是大模型的规律。
今年4月,阿里云披露,过去一年它的大模型API(应用程序接口)调用量增长接近100倍,这意味着,像上一轮移动互联网浪潮一样的AI应用创新正在2025年爆发,在未来可见的几年,云和AI的消耗量会飞速增长,这将带来新一轮战略机遇期。
然而,阿里云的大模型,也有对手,随着字节、百度、腾讯等大厂进入AI大模型领域。但要构建起一个真正意义上的“大模型应用平台生态”,华为云的短板是,虽有B端大客户资源,但模型能力仍在追赶、平台化打法偏重项目制,难以形成广泛开发者参与的生态闭环,火山引擎则在模型技术上具备一定优势,客户基础相对比较薄弱。
客户一旦使用了阿里的开源模型,后续自然也会更倾向于选择阿里云的AI产品,进而带动了公有云业务的增长。而阿里云大模型应用平台生态,采用的是开源策略,有助于快速笼络开发者。
阿里有庞大的400万客户基础,不仅如此,阿里云也花了不少功夫在打造AI应用领域的标杆案例,就是用云量不大,但属于AI应用头部公司,也会被阿里云当做是大客户对待。
积极使用阿里云AI产品的客户,从大中型企业逐渐延展到了中小企业,本季度阿里的AI产品应用,除了互联网、智能汽车、金融、在线交易等,还渗透到很多传统行业,如养殖业、传统制造业等。
阿里云凭借“开源模型+AI 云服务”的双重布局,在模型层的持续深耕、迭代优化,精准对接大客户建立AI基础设施、训练大模型的算力需求,从而拉动阿里云算力服务收入增长。
阿里云的优势是场景丰富。电商对阿里云来说,是天然的AI试验田,淘宝、天猫、1688,每天都有海量的用户、商家和交易在跑,别人要费大劲找客户试验AI产品,阿里直接在自家场景里就能落地。阿里云也反过来帮电商回血,推荐算法更聪明,广告投放更精准,客服响应更高效,这直接影响商家的ROI 和消费者的体验,两边互相加持,形成一个循环。
AI重构阿里云的商业模式,随着阿里云开始往越来越多场景渗透,也吸引了越来越多开发者和应用在平台上搭建生态,形成“技术输出-场景反馈-模型迭代”的正向循环。
阿里云在用自家的生态,把AI产品「养大」,然后再往外推给更多企业。当年星巴克进驻中国,阿里云整合淘宝平台运营经验,让星巴克中国把整套运营体系迁移到阿里云上。
企业将AI技术应用于实际业务场景时,往往会遭遇数据不足、技术瓶颈等难题。在这一背景下,市场对云厂商的期望发生了转变,不仅仅满足于云厂商提供基础的算力资源,即IaaS服务,而是希望云厂商能够深入到产业中,为企业提供从模型训练、优化到应用部署的全流程解决方案,也就是MaaS服务。
阿里云正从硬件转向服务,向微软、Oracle等平台型企业靠拢,以提供MaaS模式,为客户全生命周期支持,这不仅提高了阿里云用户的迁移成本,更打开了新的盈利空间。
随着场景不断拓展,阿里云的AI应用比例还会继续走高,如果两三年后,AI占比能到三分之一甚至一半,那阿里云的故事,就和过去完全不一样了,已从传统的To B基建,走向「AI + 应用」的组合。
面对卡脖子的算力领域,阿里云已经做好了充足准备,阿里云正通过“一云多芯”模式支持国产供应链,并且,阿里巴巴正在自研一款AI芯片,以填补英伟达算力芯片采购受限后留下的算力空白。据说,这款AI芯片将采用国内产供应链,不再选用台积电的代工方案。
在产品设计层面,阿里自研AI芯片采用全新自主研发路径,针对通义千问大模型及AI推理任务进行架构优化,能效比与计算效率实现显著提升。阿里云奉行技术自主可控法则,正秘密研发新一代液冷智算集群,单机柜功率密度较传统方案提升300%,预计2026年商用。