光和原子联手,量子要量产了?


2026年,全球量子计算领域正处于一个微妙而关键的十字路口。
一方面,资本市场在经历了几年的狂热后,开始对那些只能停留在实验室演示阶段、缺乏明确商业路径的“科学实验”表现出审慎,所谓的“估值泡沫”正在接受现实的洗礼。
另一方面,技术突破的深度与广度却在以前所未有的速度演进。2026年4月28日,Monarch Quantum 与Oratomic宣布达成战略合作伙伴关系,此次合作将整合光子系统和中性原子架构,打造容错、实用规模的量子计算机,并在本十年末交付拥有数万个物理量子比特、编码数千个错误更正逻辑量子比特的系统。

这一消息不仅震动了学术界,更在工业界引发了剧烈反响。这两家公司的联手,标志着量子计算正从单纯的物理学探索,全面转向以集成化基础设施和高效纠错算法为核心的“系统工程时代”。

量子黎明前的“暴力拆解”
在过去十年的大部分时间里,量子计算行业一直被一种“百万物理比特”的登月计划叙事所笼罩。当时的普遍共识是,由于量子比特极易受到环境干扰而退化(即“退相干”),要实现具有商业价值的容错量子计算,必须通过海量的物理比特来纠集出少量的逻辑比特。在这种逻辑下,行业陷入了一种“堆料式”发展的怪圈:为了增加比特数量,实验室不得不扩建巨大的稀释制冷机,铺设数英里的超导线缆,或搭建横跨数个光学平台的激光系统。这种追求规模的“暴力拆解”路径虽然在数值上不断刷新纪录,但在系统的可靠性、可制造性以及成本控制上却面临着难以逾越的壁垒。
2026年,这种“实验室杂乱”已成为阻碍量子计算规模化的主要机械枷锁。当行业试图从1000个比特跨越到100万个比特时,物理空间的占用和维护成本已经超出了大多数商业实体的承受能力。
Monarch Quantum与Oratomic的合作代表了一种全新的思维方式。他们不再单纯追求物理比特的绝对数量,而是通过“光子引擎”的标准化和“纠错效率”的极致优化,试图在更小的物理规模上实现更强大的逻辑能力。这一转变意味着量子计算开始告别“作坊式”的科研生产模式,转而拥抱现代半导体工业中常见的模块化与集成化理念。

Oratomic:1万个比特如何颠覆百万规模假设
Oratomic,这家成立于加州帕萨迪纳的初创公司,因其在2026年初发布的一项里程碑式研究而声名大噪:他们证明了实现实用级、容错量子计算所需的物理比特数量可以从100万个大幅缩减至1万个左右。
Oratomic的核心突破源于其与加州理工学院的深度合作,研究团队包括了量子信息领域的泰斗级人物 John Preskill以及Manuel Endres。传统的量子纠错方案由于其几何局限性,往往需要约1000个物理比特来编码1个逻辑比特,这导致了巨大的硬件开销。

Oratomic采用了一种名为“量子低密度奇偶检查码”(qLDPC)的新型架构,特别是其研究中提到的lp24提升乘积码。通过利用中性原子架构特有的非局部连通性,这种代码可以将编码率提升至30%左右。这意味着在lp24方案下,仅用5278个物理比特就能编码出1480个具有鲁棒纠错能力的逻辑比特,距离为24。
Oratomic选择中性原子作为其量子硬件的物理载体,这绝非偶然。中性原子架构利用高度聚焦的激光束来捕获和操纵单个原子。
动态重构能力:与固定在芯片上的超导比特不同,原子在真空中是可移动的。这意味着在计算过程中,原子可以根据算法需求被动态重排,从而实现“全对全”的连通性。这种灵活性是实现高效qLDPC码的关键物理前提,因为这些高级纠错码需要物理比特之间存在复杂的、非局部的交互作用。
室温基础设施:虽然原子本身需要通过激光冷却至微开尔文级别,但容纳原子的物理腔体和外部控制系统可以在室温下运行。这极大地简化了系统的冷却需求,使得量子计算机有望走出特制的制冷实验室,进入标准化的机房环境。
天然的一致性:每个原子的性质都是完全相同的,这避免了固体物理系统中常见的制造缺陷和比特频率漂移问题。
Oratomic的创始人名单代表了当代量子物理的顶尖水平。CEO Dolev Bluvstein曾在哈佛大学Mikhail Lukin实验室完成了其关于中性原子算法的突破性研究,而首席科学家 Madelyn Cain则负责了纠错理论的构建。John Preskill教授——这位在2012年创造了“量子霸权”一词的物理学家——亲自参与了 Oratomic的创立,并公开表示:“我研究容错量子计算的时间比我的一些合著者活得还长,现在我们终于接近目标了”。这种顶级的学术背景为Oratomic赢得了极高的技术信誉,使其在2026年的量子竞争中占据了独特的制高点。

Monarch Quantum——量子时代的“台积电”?
Monarch Quantum的定位非常明确:他们不生产最终的量子计算机整机,而是为所有依赖精密光控制的量子硬件提供标准化的基础设施层。
在原子和离子阱量子计算中,每一个量子操作——从状态初始化、冷却、陷获到逻辑门操作和读取——都必须通过特定频率、相位和强度的激光来实现。Monarch Quantum研发的“量子光引擎”正是为了解决这一环节的工程化难题。
这些QLEs将原本占据整个光学平台的数百个分立元件集成到了紧凑的、工厂对准的模块中 。这种集成化不仅缩小了体积,更重要的是提高了系统的稳定性和重复性。Monarch的愿景是让量子计算公司能够像购买标准 CPU 散热器或内存模块一样,直接采购这些高性能的光子控制单元,从而将研发精力集中在比特物理和软件算法上。
传统的激光平台更像是一件精密而脆弱的艺术品,任何温度波动或微小的物理振动都可能导致光路失准。Monarch通过引入混合微光学封装、机器人组装和机器学习控制,实现了光路的永久性对准。
体积缩减:将原本需要12-18个月手动搭建的光路系统压缩进单个模块,部署周期缩短至6-9个月。
成本优势:相比传统方案50万至200万美元的定制成本,Monarch的标准化引擎预计能将成本降低 50%-70%。
可靠性:QLEs经过严苛的工业级测试,能够承受运输震动并适应不同的机房环境,这对于量子计算的商业化部署至关重要。
Monarch Quantum的创始团队由光电产业的资深人士Timothy Day博士领导,他曾有过将复杂激光技术推向高产量的成功商业经历。这种“硬科技”背景使其在短短半年内就积累了超过1.15亿的合同和资本。

更引人注目的是其客户列表:NASA、Quantinuum以及Infleqtion。NASA在2026年初选择了Monarch 为其“量子重力梯度仪开拓者(QGGPf)”任务提供光子引擎。这项计划在2030年发射的卫星任务,要求量子系统必须能够在严酷的太空环境中保持极高的精度和稳定性。这一合作不仅是Monarch技术实力的背书,更预示着集成光子技术在量子感测和全球监测领域的巨大潜力。

为什么这组“CP”能改变格局?
Monarch Quantum与Oratomic的联姻,本质上是光子技术与原子物理的深度整合。这种“混合架构”并非简单的供应商关系,而是一种高度协同的共同演进。

在Oratomic的1万比特架构中,光子不仅是观察者,更是执行者。每一个原子的陷获位置、每一个量子门的相互作用强度,都由Monarch的光子引擎精确调控。
原子负责计算:利用中性原子长寿命的相干性和天然的同一性作为数据处理单元。
光子负责互联:通过 Monarch 提供的动态光路分发系统,实现跨区块的原子交互。这种架构解决了超导路径中常见的“布线灾难”,因为光子可以通过自由空间或柔性光纤轻松地在数千个比特间传递信息。
Oratomic的qLDPC纠错码对硬件提出了一些特殊的要求,例如需要非局部的连通性。如果使用传统的分立光学系统来模拟这种复杂的连通关系,系统的失准率将变得不可接受。而Monarch的QLEs具有可重构的特性,可以根据软件算法的指令,灵活调整激光束的指向和相位,从而完美适配qLDPC码的拓扑结构。
这种“软硬一体化”产生了1+1 > 2的效应:软件上的纠错效率提升降低了对硬件规模的需求(从100万减至1万),而硬件上的标准化与稳定性则为高效算法的运行提供了坚实的物理保障。正如Dolev Bluvstein 所言:“我们的架构不仅是为了制造出第一台有用的量子计算机,更是为了建立一个可以大规模制造的基础设施”。
在2026年的合作协议中,Monarch将正式担任Oratomic的“光子系统集成商”,负责系统的工程化、产品化和大规模制造。这意味着量子计算机的生产将开始遵循类似传统服务器的组装逻辑:一个真空气室(Oratomic提供),配以多个标准化的光子控制单元(Monarch提供),再由自动化的系统控制软件进行调度。这种生产模式的建立,是量子计算从“讲故事”迈向量产的关键一步。

全球竞争正在从“谁的比特更多”转向“谁的系统更像产品”
把视野拉开,这条新闻并不孤立。IBM已经把Starling写进2029年的容错路线图,目标是向客户提供能够在200个逻辑量子比特上执行1亿门操作的系统;Google、Quantinuum、QuEra、Atom Computing、Pasqal等公司也在不同路线中推进纠错、逻辑量子比特和系统集成。McKinsey2026年量子技术监测报告显示,2025年量子技术初创企业投资达到126亿美元,是2024年的6.3倍,资本、人才和制造资源正在向少数高资本化玩家集中。
这意味着量子计算已经进入一个更复杂的阶段。一方面,行业比以往更接近容错,路线图不再只是远景口号;另一方面,泡沫和真实进展同时存在。Reuters Breakingviews 在4月28日的评论中提醒,量子计算仍在等待自己的“ChatGPT时刻”。这句话的含义很明确:硬件里程碑可以点燃估值,但真正让世界改变的,仍然是可被用户使用、可被行业吸收、可被商业模式证明的应用。
超导路线有成熟微纳加工、快速门操作和强大的产业组织能力;离子阱路线在高保真和连接性上仍具优势;光量子路线正在借助集成光子与通信基础设施寻找突破;中性原子则押注大规模阵列、可重构连接和较低纠错开销。真正变化的是评价标准:行业开始关心单位逻辑比特成本、单位机房面积算力、长期稳定运行时间、供应链可复制性,以及系统能否被交付给真实客户。
换句话说,量子计算的竞争正在从“科学仪器竞赛”转向“复杂工业系统竞赛”。谁先把纠错开销、控制复杂度、制造流程和软件栈压到可承受范围,谁就更接近下一阶段的入场券。
这条新闻对中国量子产业也有一个现实提醒:未来国际竞争不会只发生在整机发布会上。很多更长期、更稳定的机会,可能藏在基础设施层和模块层。低噪声激光、集成光子芯片、精密封装、光电调制、真空与低温工程、量子测控、实时译码、校准自动化、量子软件工具链,这些看起来没有“发布一台量子计算机”那么耀眼,却可能决定机器能不能真正走出实验室。
中国量子计算如果只追逐“谁的比特数更大”,很容易陷入新闻指标竞争;如果能更早把供应链、工程模块、标准接口和应用软件放到同等重要的位置,才更可能在容错时代获得持续竞争力。量子计算最终不是一篇论文、一块芯片或一台样机,而是一整套可以被部署、维护、升级的计算基础设施。

胜负未定,但核心问题已经变了
至于Monarch与Oratomic 能否在4年内交付新闻稿中描述的系统,现在没有人能给出确定答案。量子计算历史上从不缺少乐观时间表,真正稀缺的是在真实噪声、真实损耗、真实制造和真实运维中仍然成立的工程事实。
但这并不削弱这次合作的意义。它至少说明,容错量子计算的核心问题正在改变:过去人们问,量子计算机什么时候能拥有足够多的物理量子比特;现在更应该问,谁能用更少的物理资源、更稳定的控制系统和更可复制的制造方式,率先得到足够有用的逻辑量子比特。
如果说早期量子计算像一场关于自然规律的思想实验,那么今天它越来越像一场关于工程组织能力的考试。光要更稳,原子要更听话,纠错要更省,系统要更像产品,产业链要更像产业链。
Monarch与Oratomic给出的答案是“只用光和原子”。这个答案未必就是终局,但它已经把问题推到了更接近真相的位置:量子计算的黎明,可能不会以一个夸张数字突然出现,而会以一台可以持续运行、可以复制部署、可以被真实用户调用的机器,安静地到来。
[1]https://monarchquantum.com/2026/04/28/monarch-quantum-and-oratomic-announce-quantum-computing-partnership-to-accelerate-utility-scale-fault-tolerant-systems-by-the-end-of-the-decade/
[2]https://investorplace.com/hypergrowthinvesting/2026/04/the-quantum-computing-paradox-brilliant-future-complicated-present/
[3]https://www.caltech.edu/about/news/caltech-team-finds-useful-quantum-computers-could-be-built-with-as-few-as-10000-qubits
[4]https://www.breakingviews.com/columns/big-view/quantum-computing-awaits-its-chatgpt-moment-2026-04-28/
[5]https://www.mckinsey.com/capabilities/mckinsey-technology/our-insights/mckinsey-quantum-technology-monitor-2026-a-commercial-tipping-point
[6]https://www.oratomic.com/news/launch-announcement
[7]https://time.com/article/2026/04/07/ai-quantum-computing-advance/






