Universal Chiplet Interconnect Express (UCIE)是一种开放的行业标准互连,可在芯粒(Chiplet)之间提供高带宽、低延迟、节能且具有成本效益的封装连接。由英特尔、AMD、Arm、台积电和三星等众多行业巨头推动。
UCIe从PCIe扩展而来,是个分层协议,协议层支持PCIe 6.0及CXL 2.0/3.0的生态。
Blackwell采用的是一种叫做NV-HBI(High Bandwitdth Interface)的技术,带宽高达10TB/s。
共享数据很简单,OpenGL时代的persistent map,让驱动去做同步、做数据搬运,从而给开发者营造“数据随时可得”的假象(当然也可能的确就是随时可得),这就已经达到共享数据的要求了。
共享地址的难度则增加了一些,其目标是为了让你在CPU上跑的链表能直接在GPU等地方使用。x64时代到来使得内存地址扩充到48位,而且CPU上已经全面虚拟地址,GPU也要跟着加上地址转换的能力。
共享物理内存则明确表明,实现了上两者的独显(OpenCL的SVM就是前两个要求)也要被排除。那就基本是核显Only(主机的架构也可以看作是核显)。
https://www.zhihu.com/question/430936274
苹果的统一内存和集成显卡与CPU共用内存有什么区别?
https://www.zhihu.com/question/22233341
CPU与GPU之间是如何通信的?
RDMA网卡(Remote Direct Memory Access,这是一种硬件的网络技术,它使得计算机访问远程的内存时无需远程机器上CPU的干预)已经可以提供50~100Gbps的网络带宽和微秒级的传输延迟。
目前许多以深度学习为目标应用的GPU机群都部署了这样的网络。
UCX是一个建立在RDMA等技术之上的用于数据处理和高性能计算的通信框架,RDMA是其底层核心之一。
OpenUCX是UCX的一个开源实现。
RDMA包含Infiniband(IB),RDMA over Converged Ethernet(RoCE)和internet Wide Area RDMA Protocol(iWARP)。三种协议都符合RDMA标准,使用相同的上层接口,在不同层次上有一些差别。
InfiniBand(直译为“无限带宽”技术,缩写为IB)是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟,用于计算机与计算机之间的数据互连。相当于是面向HPC的以太网的替代品。
Mellanox Technologies是一家InfiniBand制造商,于2020年被Nvidia收购。
名称 | 时间 | 带宽 |
---|---|---|
ConnectX-5 | 2016 | 100Gbps |
ConnectX-6 | 2020 | 200Gbps |
ConnectX-7 | 2022 | 400Gbps |
ConnectX-8 | 2024 | 800Gbps |
官网:
https://www.openucx.org/
NIXL:NVIDIA Inference eXecution Layer
对比点 | NIXL | NCCL | UCX |
---|---|---|---|
目标场景 | 推理KV cache、activation搬运 | 训练/推理的集合通信 | 通用网络抽象 |
语义 | 1-sided RDMA put/get 为主 | 集合 allreduce/bcast | 灵活但需自己实现 put/get |
GPU 零拷贝 | 一等公民 | 需要 GPUDirect RDMA | 需额外配置 |
推理友好 | 针对 decode 阶段优化 | 主要用于训练 | 通用,推理需二次封装 |
参考:
https://mp.weixin.qq.com/s/_xcE8RUs0m4gwk3kxpe9jA
基于HTM/RDMA的可扩展内存事务处理系统
https://www.zhihu.com/column/c_1231181516811390976
一个RDMA方面的专栏
https://www.zhihu.com/question/422501188
什么是InfiniBand,它和以太网的区别在于什么?
https://www.cnblogs.com/allcloud/p/8945544.html
InfiniBand 与Intel Omni-Path Architecture
https://zhuanlan.zhihu.com/p/580035183
RoCE vs Infiniband vs TCP/IP
光互连是物理距离较远的芯片的首选。隔壁的PCIE系列也类似,PCIE 6将是最后一代使用电线的标准,未来的PCIE 7+也将转向光通信。
OCS是谷歌自研的数据中心光交换机。通常数据中心内数据交换是光电混合网络,设备之间的主要互联通过光缆/铜缆/光电转换器件、以及交换机ASIC/Serdes/PCIE/NVLink等链路实现。与过去在网络层之间多次将信号“从电转换为光,再到电”不同,OCS是一种全光学的连接方案,通过MEMS阵列结合光环路器、波分复用光模块实现光路的灵活切换、以达到直接通过光信号组建交换网络的目的。
SFP(Small Form-factor Pluggable)和QSFP(Quad Small Form-factor Pluggable)是光纤通信中常用的两种光模块接口类型。最近几年还出现了OSFP封装方式。
光模块的单价比较高,通常单个光模块可以到几千甚至几万人民币。由于每个Port都要使用光模块,因此光模块的数量基本与GPU的数量成正比,通常可以达到GPU的4-6倍,因此,仅光模块的成本就很高。
南北向(North-South)流量:指的是来自数据中心外的流量,不仅包含来自或访问互联网的流量,也包含和其他数据中心的流量。
东西向(East-West)流量:指的是来自同一数据中心的流量,比如数据中心中不同Server相互访问的流量。在现在的数据中心中,这一部分流量是大头,通常至少占70%-80%。
有些场景也会使用ToR Switch(Top-of-Rack,柜顶交换机),通常是作为Leaf Switch。因为和Server在一个机柜内,其布线会更加简单。
在DGX SuperPod中,由于数据量巨大,因此存储系统是与计算节点分开的,Storage Rack负责管理前者。
CPO(Co-Packaged Optics):把光引擎挪到交换机封装里,替代可插拔光模块。
OIO(In-Package Optical I/O):把光引擎挪到计算芯片(GPU/ASIC)封装里,替代电I/O。需全新硅光、3D封装,产业链要从头建。
NV预计将在2027年左右,使用OIO替换NVLink铜线,为此还投资了Ayar Labs(光I/O独角兽)。
https://mp.weixin.qq.com/s/gFalBUQGzezAuXdJfn1n2A
关于光通信的最强进阶科普
https://zhuanlan.zhihu.com/p/527363951
光通信、光芯片产业链
https://mp.weixin.qq.com/s/zbe2om-czwGbVBkFsPAwGw
万卡GPU集群互联:硬件配置和网络设计
https://zhuanlan.zhihu.com/p/617099215
封装内光学I/O与共封光学器件的区别(In-Package Optical I/O versus Co-Packaged Optics)
您的打赏,是对我的鼓励