
作者 | 常棣
编辑 | 葛覃
熬过国产算力的冬天,AI应用规模化的春天还远么?
2026年的春节档,即将成为AI历史上的一个标志节点。无论是芯片、基础设施和云计算,还是AI模型以及应用等环节,置身于AI行业的所有人都能感受一股巨大的推力。
国内外超过十个大模型,可能上演你方唱罢我登场的连续剧;互联网大厂掀起的C端应用普及大战,等待春晚当天到最高潮;视频生成、具身智能等多模态应用进一步拓展......
行业默契而一致地转向AI应用与落地,这说明,尽管风险仍在,但国内AI算力产业已经渡过“缺芯少卡”最难的阶段。
近期国家超算互联网核心节点的上线,就是一个标志性事件,全国首个实现3万卡部署、且实际投入运营的最大国产AI算力池,该超集群系统由中科曙光提供,覆盖万亿参数模型训练、高通量推理、AI for Science等大规模AI计算场景。

在业内人士看来,三万卡的超集群只是一部分,更具现实参考意义的是,超集群如何支撑当下以及未来的AI应用/Agent大爆发。
AI应用,有了更适合的国产算力土壤AI产业上空的“达摩克里斯之剑”,以另一种方式高悬。
外部环境压力依旧,高端算力长期受制于海外,供应不稳定、成本波动,再加上生态封闭,让国产算力在性能提升、扩容和应用落地上都要付出更多试错成本。
与此同时,国内芯片、服务器、软件和工具厂商各自推进,接口标准不统一,软件栈兼容性差,算力调度难以打通。结果就是,看起来算力很多,但应用起来却不方便,落地成本高、迁移也麻烦。
早期国产智算中心曾出现过部分空置问题,对于三万卡的超大集群,能跑好多少应用自然是各方关注的焦点,这也是国家超算互联网的不同之处。
据悉,依托中科曙光提供的3套万卡超集群系统,国家超算互联网平台已经聚集了大量国产 AI 算力,并且对千余款主流大模型、高性能计算异构加速应用和 AI4S 应用做了适配和优化。通过算力调度和系统优化,使得应用整体性能和计算效率都有了明显提升。

具体来看,国家超算互联网 AI 社区已经完成了 400 多款热门大模型的适配,经过调优和测试,多数模型在核心节点上的运行效率比以前提升了 50% 到 200%。无论是文本、图像、视频还是音频生成,响应速度更快,效果也更稳定。
在科研和工程计算方面,应用商城上线了不少成熟工具,覆盖分子动力学模拟、工业仿真、材料计算、生物计算和 AI for Science 等方向。这些应用在核心节点上几乎都是“即开即用”,让国产算力在实际场景下更容易用起来。
以AlphaFold3为例,作为蛋白质结构预测的标杆工具,国家超算互联网推出的“AlphaFold3 一键部署服务”,现已完成核心节点的深度适配与专业测试。实测验证显示,序列长度低于 1000 的小分子序列,在核心节点上运行适配性最优。
超集群最早落地的场景,多是对算力和延迟有绝对刚需、经济价值很高的业务,这也是算力和应用双向选择的结果。下一步,预计将重点落在付费意愿强、痛点明显的场景,这类业务能够快速形成标杆案例,同时带来现金流支撑。
目前国家超算互联网平台已能够提供 Qwen、DeepSeek、MiniMax 等多款热门国产 AI 模型 MaaS 及 API 一站式接入服务,算力层均由核心节点加持,应用场景的想象力进一步打开。
用开放对抗封闭:向下供给算力,向上适配应用通用计算和智能计算的成功经验在前,国家超算互联网在构建超集群的时候,并不是先堆算力,再看能干什么,而是从一开始就想着,超集群算力要能支撑海量大模型、支持不同业务场景、适配各种应用。
换句话说,算力的建设和应用规模化是同步规划、同步推进的,联接这些AI应用和国产算力的关键枢纽,就是AI开放计算架构。
国家超算互联网选择了一条更难,却不得不走的道路。
所谓AI计算开放架构,目标是面向大规模智能计算场景,把芯片、计算系统、大模型等产业链上下游企业联合起来,从单点突破走向整体集成创新。它通过跨层开放和协作优化,破解技术与生态的壁垒,同时解决算力不足和算力成本高的问题。

之所以说这是一条更难的路,首先在于开放本身就意味着复杂度陡增。在封闭体系里,芯片、服务器、软件栈和应用可以围绕单一技术路线深度定制,效率高、路径短。
开放计算架构面对的,是多种算力形态并存、多套软件体系叠加、多类应用同时运行的现实环境。要在这样的前提下实现稳定调度、性能可控和体验一致,本身就是一项高强度的系统工程,任何一层没打通,都会在规模化时被放大。
更难的地方还在于,开放意味着要为别人“铺路”。统一接口标准、兼容主流框架、降低应用迁移成本,这些投入短期内并不一定直接转化为算力利用率或商业回报,但决定了生态能否真正跑起来。
这条路又不得不走。如果继续依赖外部封闭体系,应用一旦被某一技术路线锁定,迁移成本和风险就会不断累积,最终反过来拖垮整个产业节奏。
AI开放计算架构的特点非常鲜明,支持多元算力、高速互联、存算协同,兼顾绿色高效、稳定可靠,同时为生态发展提供空间。
一方面向下供给充足稳定的算力,以 GPU 为核心进行紧耦合设计,实现更大规模、更高效的超级集群,突破算力瓶颈;另一方面,向上适配各种应用,让应用都能更好地跑在超集群上。
通过AI开放计算架构,超算互联网把复杂性留在底层,把确定性交给应用,AI 应用规模化才能迈入“草木蔓发、春山可望”的新周期。