中科曙光发布革新性超节点,深入AI场景标配高端算力
3月26日,在2026中关村论坛期间,中科曙光正式发布世界首个无线缆箱式超节点scaleX40,并同步开启预售。面向AI应用在工控等领域加速落地阶段,企业级算力需求正由“少量高端配置”向“广泛部署能力”转变,scaleX40的推出,标志着高端算力正加速向标准化、产品化方向演进。

革新性设计重构超节点形态
scaleX40在系统架构与产品形态上进行了系统级创新。产品采用标准19英寸箱式设计,将超节点的算力单元从
机柜
形态解耦为独立机箱,提升部署灵活性与适配能力。
在连接架构上,scaleX40引入正交无线缆设计,实现计算节点与交换节点的直接对插,显著减少传统光纤与铜缆连接,支持分钟级装配与运维。该设计从源头降低系统复杂度,推动超节点从“工程交付”向“产品交付”转变。
算力配置方面,scaleX40单节点集成40张GPU,总算力超过28PFLOPS(FP8精度),HBM显存容量超过5TB,访存带宽超过80TB/s,可支撑万亿参数级大模型训练与推理需求,形成高密度一体化算力单元。此外,其向下,可兼顾32卡,满足中小规模训练、推理和开发测试;向上,它可以通过扩展,组成更大规模集群。
在部署侧,产品采用标准化尺寸,可直接适配现有数据中心机柜,无需额外基础设施改造。模块化结构支持灵活扩展,安装与扩容过程显著简化,整体部署周期明显缩短。
稳定性方面,无线缆架构有效降低连接复杂度与潜在故障点,系统可靠性提升至99.99%。同时,相较传统铜缆连接可靠性提升约一个数量级,并较光纤方案实现约40%—70%的能耗优化,在高密算力场景下兼顾稳定性与能效表现。
填补中小规模高端算力需求空白
AI基础设施正由“规模导向”转向“效率导向”。行业数据显示,企业级与行业场景正在成为新增算力需求的主要来源,算力配置更强调投入产出比与部署灵活性。
实际业务中无需数百卡乃至千卡级集群,几十卡规模已能够覆盖大多数模型训练、推理及开发测试场景,更符合企业预算与应用节奏。业内普遍将这一规模区间视为兼顾性能与成本的关键配置带。
scaleX40围绕这一主流需求区间进行产品定义,既可满足中小规模AI应用的直接部署需求,又可通过标准化扩展能力平滑演进至更大规模集群,实现“按需部署、逐步扩展”的算力建设路径。
通过箱式结构与产品化设计,scaleX40有效填补了高端算力在中小规模区间的产品空白,使具备真实AI需求但资源有限的用户,也能够以更低门槛构建高性能算力环境。
高端算力系统化支撑AI场景落地
在AI进入产业化阶段的背景下,算力正从稀缺资源向基础设施演进。如何让更多用户“买得起、用得上、用得好”,成为行业新的关键命题。围绕这一目标,曙光不仅提供scaleX40这一超节点产品,还构建了覆盖“算-存-传-管”的系统方案体系。
在数据层面,ParaStor存储系统提供高带宽与低时延支撑,通过智能数据管理提升数据流动效率;在管理层面,SothisAI实现从训练到推理再到智能体应用的一体化调度与运维,降低系统使用复杂度;在基础设施层面,结合液冷能力优化高密部署能效表现。
中科曙光高级副总裁李斌表示:“算力不应该是奢侈品,而应该像水、电一样成为基础资源。我们希望通过系统化能力,把技术复杂性留给自己,把使用便捷性交给用户,让用户更省心地用上高端算力。”
目前,曙光已形成覆盖箱式超节点到万卡级集群的多层级产品布局,能够适配从中小规模部署到大规模算力中心的不同建设需求。随着scaleX40的发布,这一体系进一步向更广泛的行业场景延伸。
在科技创新与产业应用加速融合的背景下,算力基础设施正成为数字经济发展的关键底座。scaleX40以无线缆箱式形态为切入,通过标准化与产品化路径推动高端算力从“高端配置”走向“AI场景标配”,为人工智能应用的规模化落地提供更加可行的基础支撑。
