2024年9月20日

通道激光器数量更少,有利于可靠性、光模块内部面积更宽裕,设计和制造难度小、光模块功耗更低,系统散热设计更容易。不同数据中心客户根据自己的网络架构特点选择不同的光互联技术方案(

AI需要更大的互联需求量,接入方案已经从DAC/AOC线缆变成了光模块。每GPU卡和对应的同带宽光模块数量比例达到1:4~1:6。在Nvidia的DGX H100和GH200的网络架构里加入了NVLink switch架构,进一步提升GPU之间的互联带宽。H100/H800的8卡服务器的对外NVLink带宽是14.4T,每卡和光模块(按400G算)数量比例达到1:9。

AI的发展有更高速率要求,传统云计算市场在发生变化,对更高速率光模块的需求在变缓,基础设施投入进入精细化管控阶段。目前超算集群性能的瓶颈仍在网络带宽,会成为新一代高速光模块产品的主要需求推动力。

随着交换机Serdes速率和数量的增加,现今,光模块功耗占设备总功耗高达1/3。低功耗、低时延的光互联技术更适合超算,陆睿对比了LPO/CPO/NPO技术的对比和选择,他认为LPO优点是兼顾可插拔和CPO的优点,但系统集成难度大,技术约束多。CPO/NPO优缺点都很明显,尚待观察。

光互联在超算网络中数量多且物理底层,对网络整体稳定性有关键性影响。光互联如何满足更高可靠性要求。陆睿提出研发引入阶段:1.加强光芯片的可靠性认证测试。2.加强光模块在研发和测试引入阶段的可靠性认证测试。批量部署阶段:1.严格执行研发测试——小批量灰度测试——大批量部署的流程;2.加强光模块在批量生产时的可靠性数据监控;3.结合网络监控数据平台、自动化运维监控光模块的运行情况;4.建立优胜劣汰机制,选择可靠性更优的模块技术、型号和厂家。

最后,在持续优化的要求方面,陆睿讲到目前IDC机房供电功率和散热能力设计是为传统云计算X86服务器设计的,不满足GPU服务器的高密部署,低密度部署导致光纤连接距离变长,需要升级浸没式液冷技术或其他效率更高的散热技术。另外还提到新型光纤技术—空芯光纤,空芯光纤可做到3.3ns/m时延,相比普通光纤的5ns/m时延降低了33%,按照3跳交换机、每段链路平均距离50m计算,空芯光纤可缩短约单向0.34us时延,是一个值得期待的技术。

发表评论

邮箱地址不会被公开。 必填项已用*标注