谈到AI时,数据中心是常易被人忽略的因素。然而随着AI的迅猛发展炒股配资平台技巧,数据中心的局限性日益明显:局限于单一园区或城市的数据中心,由于物理空间、电力消耗与冷却系统等基础设施的限制,已无法满足AI时代大规模模型训练的需求。
英伟达认为,AI驱动的数据中心增长需要另一种探索途径——“跨区域”扩展。只有将不同物理位置的数据中心相连,才能达到所需的AI算力,进而实现拥有十亿瓦级的智能巨型 AI 超级工厂。
在2025年8月24日至26日于美国加州举办的Hot Chip大会上,发布的Spectrum-XGS以太网,将能够实现上述能力。
Spectrum-XGS:专为分布式AI数据中心打造
AI超级工厂Q的出现,让数据中心不仅是计算资源的聚集地,更成为跨越城市、国家乃至大陆的智慧枢纽。AI模型如LLM、复杂推理、神经渲染等应用场景的诞生,使得GPU之间的高速互连、低延迟通信成为基础设施的核心要求。
传统以太网因无法消除跨园区通信延迟、带宽密度低、拥塞管理不精准等问题,逐步难以支持新一代AI工作负载。尤其是在千兆级别GPU集群的部署下,单一数据中心的计算能力和内外部互连瓶颈成为制约AI产业升级的关键障碍。
Spectrum-XGS正是在这样的背景下应运而生,作为NVIDIA最新以太网技术的引擎,专为分布式AI数据中心打造,重新定义了跨区域扩展(Scale-Across)的可能性。它不仅是数据中心纵向扩展(Scale-Up)、横向扩展(Scale-Out)后的第三达支柱,更是将分布于不同地理位置的多站点数据中心统一为超级工厂的关键。
所谓“跨区域”,指的是将位于不同物理位置的数据中心互连,打破单体数据中心的空间与能耗天花板,实现任意规模的AI资源统一调度与分配。以往,扩展仅限于单一园区内机架数量、服务器密度等物理参数,而英伟达提出的跨规模架构,真正将分布式资源变为一个整体,使百万级GPU节点协同工作,像一个“超级芯片”那样高效运转。
这极大提升了模型训练的性能和效率。借助自动拥塞控制、精确延迟管理和端到端遥测,Spectrum-XGS能够在多个数据中心之间保持近乎本地化的低延迟与高带宽,为超大规模AI推理和实验提供可预测的服务质量。一项英伟达集体通信库NCCL上的基准测试结果显示,跨站点多GPU通信的性能可提升近一倍,分布式负载的同步成本从而大幅降低。
英伟达AI生态已形成GPU、网络、软件三位一体的完整体系
Spectrum-XGS的诞生并非偶然,而是英伟达长期深耕网络互连领域的结晶。早在2020年,英伟达通过收购Mellanox获得InfiniBand,并在此后持续其Quantum InfiniBand系列进行大量投资。InfiniBand至今仍然是对延迟最敏感的超级计算机等项目的互连选择。
Spectrum-X平台首次亮相于2024年,以其专门为AI设计的以太网网络架构,成为业界关注焦点。它集成了Spectrum SN5600交换机、BlueField-3 DPU(数据处理单元)与ConnectX系列超级网卡,实现了比传统以太网高出1.6倍的带宽密度。
今天,英伟达的AI生态已形成GPU、网络、软件三位一体的完整体系。此次Spectrum-XGS的发布无疑将其AI生态中的网络互连进一步提升,也对英伟达传统的InfiniBand互连方案进行补充。今后InfiniBand以超低延迟、强大的扩展能力持续在超级计算机领域占据优势,而Spectrum-XGS则以更经济、兼容性更强的方式实现了地理分布式AI工厂的横向扩展。
Dell’Oro Group等机构预测,未来五年基于以太网的数据中心交换机收入将达到近800亿美元。而英伟达以其GPU与网络平台的深度融合,尤其是CUDA生态系统的加持,在提供紧密耦合的一体化平台方面拥有独特优势。Spectrum-XGS与NVLink、Quantum-X硅光网络交换机等技术结合,为AI超级工厂提供从机架到洲际的全方位支持。目前已有超大规模运营商计划采用Spectrum-XGS。CoreWeave是其中之一, 该公司计划利用Spectrum-XGS将其分布式站点协同合作为一台超级计算机,为客户提供更大的聚合容量,并简化千兆规模实验和生产培训运行的操作。
可以说,AI的下一个十年,将属于能够跨越空间、打破限制、把全球资源汇聚成超级芯片的超级工厂。而NVIDIA Spectrum-XGS正站在变革的最前沿,推动AI基础设施迈向新时代。
辉煌优配配资提示:文章来自网络,不代表本站观点。