重估CPO

2026年第二届
玻璃基板与光电融合技术峰会
——从TGV工艺到CPO集成

人工智能和加速器驱动型工作负载的快速增长正迫使数据中心的光互连架构进行根本性的重新思考。共封装光学器件和三维光子集成已成为克服电I/O能耗和带宽限制的有效解决方案。然而,随着光学器件与计算的融合日益紧密,封装、散热管理和系统级鲁棒性在性能和可扩展性方面的重要性也日益凸显。
本文认为,共封装光学器件不应被视为组件级优化,而应被视为一种架构承诺,它重新定义了光子学、电子学和系统设计之间的界限。文中,我们探讨了异构集成策略、基于芯片的光学器件以及新兴封装平台如何重新定义人工智能系统的扩展规律,并指出这些变化往往会带来在以器件为中心的分析中被低估的权衡取舍。
展望未来,我们将讨论标准化、可维护性和热感知协同设计为何将决定共封装光学器件能否从早期部署过渡到在人工智能规模的数据中心中得到广泛应用。
AI数据中心的发展已经超越了对光I/O的假设
人工智能 (AI) 工作负载的快速增长正在以前所未有的速度重塑数据中心设计,这种速度远远超过了人们对光输入/输出 (I/O) 的长期认知。几十年来,光互连一直被视为外围使能技术——高带宽、高能效的链路,可以独立于计算进行升级。然而,这种抽象概念如今正在瓦解。随着 AI 加速器数量和功率密度的不断增长,光 I/O 不再是一个可分离的子系统,而是一个制约架构、封装和系统可靠性的结构性要素。

传统的光纤I/O模式兴起于一个以相对模块化的服务器架构和可预测的流量模式为主导的时代。带宽扩展是通过增加通道数量和数据速率来实现的,而光器件在物理和概念上仍然与计算芯片保持距离。每比特能耗和传输距离是主要的衡量指标,可插拔收发器在性能、灵活性和可维护性之间提供了便利的平衡。只要电I/O能够弥合交换机、加速器和光模块之间的差距,且不会过度消耗功耗或影响信号完整性,这些假设就成立。
人工智能数据中心打破了这些前提。现代训练和推理工作负载的特点是跨越数千个加速器的密集、低延迟、全对全通信。由此产生的流量高度局部化、持续且对延迟变化零容忍。电气I/O已成为主要瓶颈,迫使光学器件不断向计算芯片迁移。共封装光学器件(CPO)和三维(3D)光子集成是应对这种压力的自然选择,它们缩短了电气走线长度并降低了每比特能耗。然而,这些解决方案也打破了光学、电子和系统设计之间由来已久的界限。
这种界限的模糊暴露了人工智能系统需求与固有的光学I/O假设之间更深层次的不匹配。能效虽然仍然重要,但不再是唯一的——甚至不再是主要的——优化目标。在人工智能集群中,每比特pJ的增量收益可能会被封装或机架级别的热不稳定性、良率损失或运行脆弱性所抵消。当光引擎与数百瓦的加速器芯片相邻放置或堆叠时,热梯度、机械应力和波长漂移成为首要的系统问题。光性能不再能独立于冷却策略、电源传输或封装拓扑结构进行定义。
早期的CPO演示自然而然地强调了关键指标:降低每比特能耗、提高总带宽和缩小尺寸。这些结果验证了短距离光I/O的物理优势,但也掩盖了新出现的系统级限制。在高度集成的AI节点中,单个光接口的故障或性能下降可能会影响整个封装,而不仅仅是可更换的模块。异构芯片的良率损失会累积,而围绕热插拔光学元件设计的维护模型不再适用。以往认为光学元件是系统边缘可维护的端点的假设,与AI规模的集成越来越不兼容。
此外,人工智能工作负载加剧了架构僵化的后果。加速器的生命周期正在缩短,互连拓扑结构正在快速演变,工作负载特性在训练、推理和新兴混合模型中各不相同。如果缺乏模块化或适应性,针对特定一代交换机或加速器优化的光I/O架构将面临过早过时的风险。在此背景下,问题不仅在于如何将光器件更靠近计算,更在于如何在不将当今的假设硬编码到未来基础设施的情况下实现这一点。
这些压力揭示了一种根本性的转变:光I/O已从带宽配置问题转变为系统协同设计问题。关于光子平台、封装策略和集成深度的决策现在直接影响数据中心级别的指标,例如正常运行时间、可扩展性和总体拥有成本。对于兆瓦级运行的人工智能系统而言,每瓦的鲁棒性可能比每比特的能耗更为重要。效率略低但热稳定性好、可大规模制造且兼容基于芯片的替换策略的光链路,最终可能带来更高的系统级性能。
因此,人工智能数据中心不仅对现有光学技术提出了更高的要求,而且还在重新定义评估光I/O解决方案的标准。如果架构只注重组件级优化,而忽略异构集成、热耦合和生命周期管理,则可能无法解决系统本身的问题。随着光学器件不断向封装化,并日益向三维空间扩展,该领域必须面对一个令人不安的现实:共封装和3D光子系统的成功,与其说取决于光学技术的精妙程度,不如说取决于架构的克制性。

在这种新模式下,光I/O的设计不再能孤立进行。它必须被视为人工智能计算平台不可或缺的、系统感知的组成部分——其局限性既影响着数据中心的整体架构,也受其影响。
目前关于光器件共封装的讨论大多侧重于可行性、性能里程碑和近期部署,这不难理解。然而,对于将光器件深度嵌入计算组件如何重新定义数据中心规模的系统边界、生命周期管理和创新路径,却鲜有关注。令人印象深刻的演示验证了其可行性。更棘手的问题是,这些架构在超大规模环境下能否保持运行弹性。
共封装光学元件并非组件,而是一项系统决策
随着光互连从数据中心外围向封装内部扩展,共封装光器件 (CPO) 不再能被视为简单的组件升级。相反,CPO 代表着系统级决策,它重塑了计算、封装、散热和运维等各个环节的架构边界。这种区别虽细微却至关重要:组件可以进行局部优化和独立更换,而系统则施加了跨多个设计层和生命周期的约束。
历史上,光收发器扮演着明确的角色。它们一端连接标准化的电I/O,另一端连接光纤,使系统架构师能够将光电路与计算和交换逻辑分离。性能调优主要集中在链路级指标上——比特率、传输距离和每比特能耗——而故障模式大多局限于局部且易于维护。共封装光器件(CPO)打破了这种抽象。通过将光引擎与高功率ASIC紧密地放置在物理和热力上,CPO将原本独立的设计领域压缩成一个紧密耦合的系统。
这种耦合改变了优化的本质。在CPO架构中,光性能与电信号、热管理和机械完整性密不可分。虽然电气走线长度缩短了,但热梯度却增加了。芯片级的光对准容差有所提高,但组装良率对多芯片间的相互作用变得非常敏感。从光子学的角度来看,一些看似有利的决策——例如更高的调制密度或更小的波长间隔——在以数百瓦功率运行的人工智能加速器为主导的热动态环境中,可能会引入不稳定性。
在三维 (3D) 集成方案中,这种影响尤为显著。垂直堆叠有望实现最短的互连线和最高的带宽密度,但同时也会放大层间非线性相互作用。逻辑芯片产生的热量会直接扰动其上方或下方的光子元件,从而影响激光器效率、谐振器稳定性和链路裕量。与平面系统不同,平面系统的热路径可以横向设计并相对灵活地进行缓解,而 3D 堆叠对热流的限制使得后期改造变得困难。在这种配置中,光 I/O 成为一个对热敏感的子系统,嵌入在封装中最密集的功率区域内。
这些挑战揭示了一个更广泛的架构真相:CPO 的优势不能脱离其系统成本来评估。通过消除长电线实现的每比特能耗降低可能会被稳定温度、调谐波长或控制热串扰所需的能量开销所抵消。同样,带宽密度的提升可能会以牺牲良率、可靠性或可维护性为代价。问题不再是CPO在技术上是否可行,而是具体的实现方案在规模化应用中是否具有架构可持续性。
基于硅光子学和基于VCSEL的CPO平台之间的区别就说明了这一点。人们通常会从传输距离、调制效率或波分复用能力等方面来比较这两种方法。然而,在系统层面,它们代表着截然不同的架构理念。硅光子学能够实现高密度集成和更长的传输距离,但需要严格的对准、热控制,并且通常需要外部或异质集成的光源。相比之下,基于VCSEL的解决方案耦合更简单,短距离传输效率更高,但依赖于并行性,并且在扩展波长密度方面存在局限性。这两种方法本身并无优劣之分;它们的可行性取决于其限制条件如何与系统层面的封装、冷却和运行模型相互作用。
至关重要的是,CPO(集成光器件)也改变了故障语义。在传统架构中,光收发器是数据中心中最常更换的组件之一。其可插拔性使得维护无需干扰周围系统。而集成光器件则打破了这种独立性。当光引擎与交换机或加速器集成在同一封装内时,故障的后果会更加严重,且故障点更难以定位。光接口性能下降可能需要更换整个封装或电路板,从而增加成本并使操作流程复杂化。虽然新兴的芯片组和连接器化方案旨在降低这种风险,但它们引入了额外的接口,这些接口的可靠性必须经过大规模验证。
这些因素凸显了为什么应该将CPO视为系统决策,而非组件升级。一旦光器件采用集成封装,集成深度、封装拓扑结构和光平台的选择不仅会限制性能,还会影响可制造性、可测试性和生命周期管理。架构灵活性——即随着工作负载和技术的演进而调整互连策略的能力——变得与峰值效率同等重要。
对于硬件更新换代迅速、工作负载变化难以预测的人工智能数据中心而言,架构僵化会带来重大风险。围绕特定CPO实现方案进行优化的系统可能难以适应加速器设计、互连拓扑或冷却基础设施的变化。相反,将CPO视为系统级承诺的架构,即使需要对组件级指标做出一些妥协,也可以在设计时充分考虑模块化、冗余性和适应性。
归根结底,核心挑战并非将光学元件集成到封装中,而是将光学思维融入系统架构。共封装光学元件迫使设计人员正视以往隐藏在模块化接口背后的权衡取舍。它要求设计人员从优化独立组件转向在实际约束条件下平衡交互子系统。随着人工智能计算平台规模的不断扩大,CPO的成功将不再取决于光学元件与芯片的贴合程度,而是更多地取决于它们如何巧妙地嵌入到更广泛的系统架构中。

从这个意义上讲,共封装光学元件不仅仅是一项技术演进,更是一个架构转折点。它能否实现可持续规模化,还是会引入新的脆弱性,将取决于该领域能否清晰地认识到,光学元件一旦被共封装,就不再仅仅是一个组件,而是成为系统本身的决定性要素。

实际上,这种转变不太可能是非此即彼的:将光引擎放置在计算组件附近(但不在其内部)的中间架构,既能保持较短的电气传输距离,又能缓解热耦合和维护性方面的限制,这凸显了可插拔和完全共封装方案之间系统级权衡的连续性。令人印象深刻的带宽和效率演示验证了共封装的物理可行性。更棘手的问题是,这些架构在数万个节点上是否仍然具有可维护性、可升级性和经济可预测性。
封装和异构集成如今主导着scaling laws
随着共封装光器件从原型演示阶段迈向人工智能规模部署,越来越明显的是,传统的扩展指标——例如每通道带宽、每比特能耗或调制效率——已不足以预测系统的可行性。如今,封装和异构集成才是主要的制约因素。这些因素共同定义了光I/O的有效扩展规律,不仅决定了带宽的传输能力,还决定了其大规模部署的可靠性、可制造性和可持续性。
从历史上看,光互连技术的进步主要取决于器件层面的改进。更快的调制器、更低损耗的波导和更高效的光源能够相对直接地转化为系统性能的提升。封装主要作为使能层,负责电气布线和机械支撑。但在人工智能数据中心,这种层级关系发生了逆转。由于光引擎被嵌入到计算封装内部或与其相邻,封装不再是被动的基础设施;它主动地限制了热性能、良率、集成密度和可维护性。这些限制因素与系统尺寸呈非线性关系,往往会抵消器件层面取得的增量性能提升。
这种转变的一个表现是异构系统中良率叠加效应的日益显著。共封装的光模块通常集成多个芯片——逻辑电路、驱动器、光子器件,有时还包括光源——每个芯片都采用不同的工艺节点和代工厂制造。虽然单个芯片的良率可能很高,但组装后系统的有效良率是它们的乘积。随着集成密度的增加,即使是对准公差、键合质量或热应力方面的微小变化也会导致不成比例的损耗。在人工智能数据中心规模下,这种良率损失会直接转化为成本、可用性和部署风险,从而有效地限制了集成的实际规模。
热扩展性进一步说明了封装如何限制系统性能。在先进的人工智能加速器中,功率密度已经接近传统冷却方式的极限。在这种环境中引入光引擎并非仅仅增加热量;它会以影响光学稳定性的方式重新分布热梯度。谐振光子器件对几度的温度波动非常敏感,而激光效率和波长漂移与局部热条件密切相关。因此,像三维堆叠这种将热量垂直集中的封装架构,会在器件性能达到极限之前就对光密度施加严格的限制。在这种情况下,最大可用带宽并非由光子器件的性能决定,而是由封装在动态工作负载下维持热平衡的能力决定。
这些效应揭示了2D、2.5D 和完全3D集成之间的关键区别。虽然垂直堆叠在互连长度和尺寸方面提供了显著优势,但也压缩了热路径和机械公差。横向集成策略(例如中介层、嵌入式桥接器或扇出架构)以牺牲部分电气和光学紧凑性为代价,换取了更好的散热性能和可制造性。近期对深度集成计算系统的分析表明,散热和封装限制会随着集成深度的增加而迅速加剧,这凸显了架构感知权衡而非最大程度接近的必要性。从扩展规律的角度来看,这些方法通常表现出更平缓的性能退化:带宽密度增长较慢,但良率和可靠性的扩展更具可预测性。对于优先考虑正常运行时间和生命周期成本的人工智能数据中心而言,这种权衡可能被证明是有利的。
异构集成也重塑了扩展的经济性。先进的封装技术引入的成本并非线性地随性能增长。细间距中介层、精密键合和复杂的组装流程都会提高每增加1TB带宽的边际成本。同时,随着光器件的可访问性降低以及与计算的耦合更加紧密,故障的运营成本也会增加。这些经济扩展规律有利于在集成深度和模块化之间取得平衡的架构,即使这意味着光器件和逻辑器件之间物理距离的降低。
封装限制的主导地位也重新定义了标准化的作用。在早期的光I/O技术中,标准侧重于电接口和光器件外形尺寸,从而实现模块级的互操作性。在共封装系统中,
关键接口向内部转移,转向芯片间连接、光I/O封装尺寸以及热机械边界。如果没有针对这些接口的标准化方法,每个CPO实现都将成为定制解决方案,从而限制生态系统的参与并减缓其普及速度。从扩展的角度来看,缺乏标准化会造成摩擦,随着系统规模的增长,部署的实际成本和风险也会增加。
重要的是,这些限制并非仅仅是需要逐步解决的工程挑战,它们反映了物理学、制造工艺和系统架构之间的根本性相互作用。如果试图在不解决封装主导的扩展规律的情况下提高集成密度,则可能导致突发性故障模式,而非平稳的性能饱和。在人工智能数据中心,部署涉及数万个节点,这种故障模式是不可接受的。扩展必须是可预测的,而不仅仅是理论上可实现的。
认识到封装和异构集成是扩展的主要决定因素,会带来不同的优化理念。架构师不再需要最大化局部指标(例如每平方毫米的带宽),而必须考虑全局指标,包括良率调整后的带宽、热稳定吞吐量和每个机架的可用性能。这些指标本身就有利于那些对变化具有鲁棒性、能够容忍热动态变化且兼容迭代部署和更换的设计。在此框架下,最成功的光学架构可能不是集成度最高的,而是在现实世界的限制下扩展性最强的。

从这个意义上讲,封装已成为光I/O的新型“工艺节点”。正如晶体管尺寸缩小曾经决定了电子系统的发展轨迹一样,封装和异构集成如今定义了人工智能数据中心中共封装光学器件的可行性范围。未来的发展将更多地依赖于组装、热管理和接口标准化方面的协同进步,而非光子器件的孤立突破。在这些层面成熟之前,光I/O的尺寸缩小将不再受限于光子技术本身的能力,而是受限于封装技术能够可靠地支持的范围。
Chiplet光学和标准化将决定其应用普及程度,而非性能
综上所述,这些考虑因素为人工智能规模的共封装光器件提出了三项架构指导原则:
集成深度应与热稳定性挂钩,而非仅与带宽密度挂钩;
应以良率调整后的带宽(而非峰值带宽)为封装决策的指导原则;
无论加速器和光器件的创新周期出现分歧,都必须保持模块化。
随着共封装光器件从实验室演示过渡到人工智能数据中心的部署,决定其应用的关键因素已不再是峰值性能指标。每比特能耗、带宽密度和调制效率仍然是必要条件,但它们已不再是充分条件。在规模化应用中,光互连能否实现模块化、互操作性,以及能否集成到能够容忍快速迭代的生态系统中,是其能否被广泛采用的关键所在。在此背景下,基于芯片的光器件和标准化不再是锦上添花,而是必不可少。
芯片光器件的吸引力在于其能够将创新周期解耦。 AI加速器、交换机ASIC和光引擎的发展历程各不相同,采用不同的工艺节点制造,并面临不同的良率和成本压力。单片集成虽然带来了简洁紧凑的设计,但也以某种方式将这些领域紧密联系在一起,从而放大了风险。光需求的变化可能需要重新设计整个封装;一个组件的良率问题就可能导致整个系统的部署停滞。基于Chiplet的方法通过允许在组装之前独立开发、测试和升级光功能来降低这些风险。
这种解耦在AI数据中心尤为重要,因为那里的架构假设变化迅速。训练模型规模不断增长,互连拓扑结构不断演变,加速器设计也频繁更新。与特定计算单元紧密绑定的光I/O可能会成为瓶颈而非推动因素。相比之下,芯片组光模块支持渐进式演进。光引擎可以针对特定的传输距离、带宽或功耗目标进行优化,并随着系统需求的变化与不同的计算芯片进行配对。即使采用共封装,芯片组引入的逻辑模块化也能保持一定的架构灵活性,这是单芯片设计难以企及的。
然而,chiplet化本身并不能保证可扩展性。如果没有标准化,基于chiplet的光学器件可能会演变成定制集成,重蹈早期光学生态系统碎片化的覆辙。在部署量巨大且利润微薄的人工智能数据中心,专有接口会成为推广应用的障碍。它们限制了供应商的多样性,使验证变得复杂,并减缓了新解决方案的推出速度。因此,标准化不仅仅是为了方便,更是为了减少系统摩擦。
至关重要的是,标准化的重心必须向内转移。传统的光学标准侧重于系统边缘的可插拔外形尺寸、电气接口和链路规范。而共封装和基于芯片的光学器件则需要不同的侧重点。关键的接口现在包括芯片间的电气连接、光I/O接口、光纤连接几何形状以及封装内部的热机械边界。这些接口决定了不同供应商的光芯片能否以可预测的方式集成,以及系统能否大规模组装和测试。
封装设计套件和组装标准在这一转变中发挥着核心作用。虽然光子工艺设计套件加速了器件级创新,但它们在解决异构集成挑战方面作用甚微。对于人工智能数据中心而言,可靠性和良率在成本模型中占据主导地位,因此标准化的封装抽象可能比标准化的光子器件更为重要。它们使系统设计人员能够考虑热路径、对准公差和信号完整性,而无需针对每种实现方式进行定制的协同设计。实际上,它们提供了一种“契约”,使芯片组生态系统得以运行。
对标准化的重视也重新定义了性能评估方式。单独来看,高度优化的光引擎可能展现出卓越的性能指标。但在标准化的chiplet系统中,性能评估必须从兼容性、可重复性和生命周期成本三个方面进行考量。带宽密度略低但能无缝集成到标准化封装中的光解决方案,其性能可能优于需要定制组装或调优的高端设备。对于大规模运行的人工智能数据中心而言,可预测性通常比理论上的最优性更为重要。
可维护性进一步强化了这种动态。传统的数据中心运营依赖于模块化更换和分阶段升级。而共封装光器件通过将光功能深层嵌入封装内部,对这些做法提出了挑战。chiplet架构通过实现局部更换或重新配置,提供了一种部分解决方案,但这只有在接口标准化且易于访问的情况下才能实现。如果没有这样的标准,即使是基于chiplet的光器件,从运营角度来看也可能变得像单片芯片一样,从而削弱其关键优势之一。
性能驱动型设计与生态系统驱动型应用之间的矛盾并非光学领域独有,但在人工智能系统中尤为突出。加速器的性能提升通常以倍数衡量,而光互连的改进却往往是渐进式的,并且受到物理定律的限制。在这种情况下,生态系统效率的重要性日益凸显。部署时间、供应商多样性和集成便捷性等因素,其重要性可能超过链路效率的微小提升。符合这些优先事项的光技术更有可能得到广泛应用,即使它们会牺牲一些性能提升空间。
最终,共封装光学器件在人工智能数据中心的成功与否,与其说取决于光学器件的集成程度,不如说取决于其标准化和模块化的有效性。基于芯片组的架构为平衡集成性和灵活性提供了一条途径,但这只有在拥有强大且被广泛采用的标准支持,并将封装和组装作为首要考虑因素的情况下才能实现。如果缺乏此类标准,性能的提升可能仍然局限于小众部署。
从这个意义上讲,决定性的竞争并非发生在光子平台之间,而是发生在生态系统之间。能够实现互操作性、降低集成风险并支持快速迭代的光学I/O解决方案将能够扩展规模。那些以牺牲模块化和标准化为代价来优化性能的解决方案或许能够取得令人瞩目的演示效果,但难以真正应用于人工智能数据中心的实际运营中。
5-10年后的成功会是什么样子
如果未来十年共封装光学器件和三维光子集成技术取得成功,其影响将不再以打破纪录的演示为衡量标准,而是以架构的逐步标准化为衡量标准。成功并非意味着不惜一切代价将光学器件集成到越来越密集的封装中;相反,它将类似于一种成熟的平衡状态,在这种状态下,光I/O被视为一流的系统资源——在能够增加价值的地方进行集成,在能够保持灵活性的地方进行解耦,并在设计时将生命周期考虑与性能同等重要。
实际上,成功的AI数据中心将部署异构光架构,而不是单一的整体式解决方案。共封装光学器件将被选择性地用于带宽和延迟要求最高的接口,例如加速器到交换机或机架内部互连,而要求较低的链路则保留更模块化的光学器件外形。这种混合模式体现了人们认识到集成深度并非绝对的优势,而是一种取决于具体情况的权衡。最有效的系统将结合计算单元附近的短距离、高密度光接口,以及避免过度热耦合并保持可维护性的封装策略。
热感知设计将成为成熟部署的关键特征。未来的系统不会将散热视为辅助挑战,而是从一开始就将热行为纳入架构规划。光引擎的放置、间距和运行将基于工作负载驱动的热特性,而不是基于稳态运行的固定假设。在此模式下,成功并不一定意味着实现最低的每比特能耗,而是在实际的、时变的AI工作负载下提供热稳定的吞吐量。在这些条件下性能始终如一的光I/O将比仅在理想基准测试下表现优异的设计更具价值。
模块化也将是成功的标志。在未来五到十年内,光学芯片可能会像如今的计算或存储芯片一样被对待:它们是标准化的构建模块,可以独立采购、集成和升级。这并非意味着回归完全可插拔的光学系统,而是意味着出现定义明确的内部接口,使得光学功能能够在无需对整个系统进行重新设计的情况下不断发展。这种模块化对于应对人工智能加速器和互连拓扑结构的快速发展至关重要,而这些发展目前仍未显示出任何稳定迹象。
封装和组装生态系统的成熟同样重要。成功的光学系统将依赖于高性能、可重复、可测试且可扩展的封装平台。注重良率的设计实践将被融入架构决策中,从而降低对对准、键合或热应力等微小变化的敏感性。在这种环境下,密度略低但可预测性更高的封装技术可能会胜过那些难以可靠扩展的激进方案。
从运营角度来看,成功与否将体现在光I/O与数据中心工作流程的无缝集成程度上。维护模型将进行调整,以适应更深层次的光集成,并辅以系统级的改进监控、诊断和冗余。成功的架构并非消除故障,而是将故障定位并加以容忍,确保光问题不会蔓延至整个系统,造成大范围中断。这种转变反映了大规模计算领域的更广泛趋势,即通过架构设计而非组件级的完美来实现弹性。
或许最能说明问题的是,成功的结果将体现在人们对光互连的讨论方式的改变上。随着技术的成熟,光互连将不再被视为解决电气扩展性危机的特殊方案。相反,光I/O将被视为人工智能系统设计中不可或缺的组成部分,与其他子系统一样,需要权衡各种因素并遵守相同的约束条件。关注点将从“共封装光器件是否有效”转移到“它们应该在何处、如何以及在何种程度上部署”。
从这个意义上讲,未来十年的成功并非取决于最激进的集成、最低的每比特能耗或最密集的封装,而是取决于架构的可扩展性、适应性以及将光学创新与人工智能数据中心运行的实际情况相契合。共封装光学器件和3D光子学的成功并非在于突破物理极限,而在于成为系统架构中一个不起眼却不可或缺的组成部分。
展望:该领域必须面对的问题
随着共封装光学器件和三维光子集成技术日益普及,该领域面临的核心挑战不再仅仅是技术层面的。许多基础模块已经存在。目前尚未解决的是一系列架构和系统性问题,这些问题将决定这些技术是能够发展成为稳健的基础设施,还是仍然局限于特定应用场景。
第一个问题涉及热耦合。在实际应用中,计算和光学器件之间的热交互程度应该如何界定?界限又应该在哪里划定?虽然积极的三维集成可以最大限度地缩短互连长度,但也加剧了对工作负载驱动的热波动的敏感性。该领域必须思考:最大程度的接近是否总是可取的,或者通过稍长但更稳定的链路实现的有意分离是否能在系统层面提供更好的平衡。
第二个问题是可维护性和故障语义。光收发器历来是数据中心中最容易更换的元件之一。共封装光学器件通过将光学功能深埋于封装内部,挑战了这一传统范式。未来的系统应该优先考虑现场可更换的光学元件,还是业界愿意接受更高的更换粒度以换取性能提升?如果是后者,需要怎样的架构机制来定位故障并防止连锁反应?
标准化又引发了一系列悬而未决的问题。接口应该标准化到什么程度才能构建健康的芯片生态系统而不限制创新?过度标准化可能导致架构过早冻结,而标准化不足则会加剧碎片化并限制技术应用。要找到合适的平衡点,需要器件设计人员、封装专家、系统架构师和运营商之间的协调——这些群体历来针对不同的目标进行优化。
此外,衡量成功的标准也存在疑问。每比特能耗长期以来一直是光I/O性能的指导指标,但其在人工智能数据中心规模下的适用性正变得越来越模糊。未来的评估是否应该优先考虑热稳定性吞吐量、良率调整后的带宽,还是运行弹性?指标的选择将影响设计优先级和投资决策,并可能重新定义该领域进步的内涵。
最后,该领域必须考虑人工智能工作负载本身将如何演变。关于通信模式、同步要求和加速器架构的假设仍在不断变化。针对当前训练范式优化的光学系统可能不适用于未来以推理为主或混合工作负载。设计具有足够架构余量的光学 I/O 以应对这种不确定性,可能与针对当前需求进行优化同等重要。
这些问题没有简单的答案,也无法仅通过器件创新来解决。相反,它们表明需要跨学科、跨技术栈层面进行持续对话。共封装光学器件和3D光子学的下一阶段发展,与其说是取决于孤立的突破,不如说是取决于该领域能否共同直面这些矛盾,并设计出能够正视而非掩盖其固有权衡取舍的系统。随着集成度的加深,成功指标必须从链路峰值性能转向系统感知指标,例如良率调整后的带宽和热稳定吞吐量。
致谢:如下图,本文版权归原作者所有



