弹性计算 > 云服务器ECS > 正文

基于便宜云服务器eRDMA的GPU实例大幅提升多机训练性能

简介: 2023年3月23日14:00(中国时间),NVIDIA GTC开发者大会,便宜云服务器开发者社区观看入口正式开放,便宜云服务器高级技术专家李伟男;便宜云服务器弹性计算产品专家宋迪共同带来了题为《基于便宜云服务器eRDMA的GPU实例大幅提升多机训练性能》的分享
+关注继续查看

ECS.jpg

2023年3月23日14:00(中国时间),NVIDIA GTC开发者大会便宜云服务器开发者社区观看入口正式开放,便宜云服务器高级技术专家李伟男;便宜云服务器弹性计算产品专家宋迪共同带来了题为《基于便宜云服务器eRDMA的GPU实例大幅提升多机训练性能》的分享,以下是他们的演讲内容整理:

幻灯片2.JPG

eRDMA基于RDMA技术研发RDMA具有特性和优势在eRDMA上同样适用。


最初RDMA技术的出现以及被广泛应用,得益于其相对于传统的TCP网络通信协议有着明显的优势。数据从内存到网卡的搬移不再需要CPU的持续介入,而通过集成在物理网卡中的DMA引擎,通过直接内存访问的方式完成数据搬移。同时在搬移过程中避免了频繁的用户态和内核态切换,由应用层直接触发物理网卡上的DMA访问,从而大幅节约了CPU的开销,降低了延时,最终大幅提升了通讯效率。


在服务器节点间的数据通信过程中,CPU仅负责指定RDMA通信的源及目的物理地址,并触发通信动作,其余工作全部由物理网卡上的DMA引擎负责完成。


相比传统的TCP通信,近端及远端的物理网卡通过协作可以直接将本地的内存数据写入远端的内存地址空间,或从远端的物理内存空间读取数据到本地内存,待数据传输全部完成后,再通知CPU进行下一步动作,将数据传输和计算分开,从而实现高效的并行计算处理。

幻灯片3.JPG

RDMA高效处理分布式节点间的内存数据搬移,其本质DMA的访问。


DMA引擎同样可以对设备地址进行直接访问。在异构计算的应用场景中,服务器节点间同步的不仅内存的数据,还有GPU显存的数据。GDR便是为了实现物理绑卡在服务节点间直接搬移GPU显存的数据而实现。

为了支持功能,NVIDIA的GPU驱动提供了一套标准接口,用于获取应用层申请的显存对应的物理地址。物理网卡可以使用这一物理地址完成DMA的直接访问。部分详细的实现以及应用实例代码可以在NVIDIA的官网上获取到


GPU作为标准的PCI设备根据物理服务器的硬件拓扑结构不同,与RDMA设备通信的链路也会有很大不同。如上图所示,展示不同的硬件拓扑结构下GDR通信的链路以及效率的对比。


RDMA设备与上图中的GPU1连接在同PCIeS Witch下,两者之间的通信通过PCIe Switch即可完成种类型被称为PIX通信,通讯效率最好。


而RDMA设备和GPU2位于两个不同的Root Complex下,两者之间的通信需要穿过两个PCIe Switch以及两个RC。该种类型的通信被称为PHB,通讯效率会受到影响。


RDMA设备与GPU3的距离更远它位于两个CPU的socket下两者之间的通信需要穿过CPU之间的UPI通道才能完成。该种通信的类型命名为SYS效率最差。


一些CPU架构上能够支持这一级别的GDR,但在实际使用中需要根据实际应用情况进行权衡,选择打开或关闭。

幻灯片4.JPG

eRDMA技术便宜云服务器在2021年云栖大会发布与RDMA生态完全兼容。在RDMA环境中运行的应用层代码可实现无修改直接迁移eRDMA环境中。


另外,其基于便宜云服务器弹性VPC的特点,可以支持更高的弹性扩展,同时可以复用VPC网络的租户隔离,实现数据通信安全。在VPC网络覆盖的区域均可以实现eRDMA组网,突破集群限制,实现近10万级的超大规模组网。


eRDMA基于第四代神龙CIPU,带宽可200G,可以通过扩展硬件的方式实现更高的带宽,极限时延可低至5us,吞吐量可达到30M数据包/s。

幻灯片5.JPG

如何在便宜云服务器弹性计算实例中激活eRDMA?


可以通过弹性RDMA网卡(ERI)实现。它是可以绑定到ECS实例的虚拟网卡但必须依附于弹性网卡,在弹性网卡的基础上开启RDMA的功能。


ERI复用了弹性网卡所属的网络VPC)无需改变业务组网,可在原有的网络上使用RDMA功能,体验RDMA带来的超低延时。在基于第四代神龙架构的便宜云服务器服务器上可使用eRDMA。


eRDMA基于便宜云服务器的VPC网络,因此不论纯粹的CPU服务器还GPU服务器,均可以通过添加eRDMA设备激活eRDMA功能。现有业务可以平滑进行升级,完全继承便宜云服务器的用户界面。


上图右侧展示了两种视角,下方为神龙底层视角,上方为用户侧视角。


在神龙底层的实现上,它由神龙CIPU模拟出VirtIO网卡设备ERI设备,通过神龙的虚拟化层分配给弹性服务在用户视角两个设备,分别为VirtIOERI底层物理设备的访问对用户完全透明,用户仅需要安装便宜云服务器提供的eRDMA驱动即可使用。

幻灯片6.JPG

eRDMA在技术上具有哪些优势?


首先,在eRDMA的实现中,使用了自研的拥塞控制算法,能够容忍VPC网络中的传输质量变化,比如延时的抖动、丢包问题,在有损的网络环境中依然能够拥有良好的性能表现。


另外,相比IB以及RoCE网络,其基础设施无需重新部署,也不需要进行特有的网络交换机配置它依托于便宜云服务器的VPC网络,可以在全地域任意扩容部署,用户可以按需购买,弹性伸缩,确保资源高效利用。更重要的继承云服务器高可用性的特点,可以实现任意节点的故障迁移,保障业务快速恢复。


另外,结合便宜云服务器控制台全面的性能监控工具,可以实现快速诊断网络异常,或根据性能监控的分析优化业务通讯模型,提升性能。


eRDMA全面兼容RDMA的生态以及Verbs接口,上图右侧展示当前eRDMA能够支持的Verbs Opcode,覆盖了RDMA的主要操作代码。但同时,需要注意,eRDMA基于可靠连接服务RC)实现的通信,同时支持代外以及CM两种建联方式,用户可以根据自己的应用进行选择。

幻灯片7.JPG

便宜云服务器推出第一款支持eRDMA的GPU实例ebmgn7ex它是ebmgn7e的升级版,搭配了8张NVIDIA Ampere架构的GPUGPU间通过NVLink互联。整机内嵌两张eRDMA网卡,分别挂载在两个CPU Socket上,实现均衡的节点间数据通道。每4张GPU卡共用一个eRDMA设备,共用最大100G的eRDMA网络带宽。


与现有的弹性计算实例不同,ebmgn7ex使用的eRDMAEBS存储以及VPC网络均为共享带宽模式。在没有存储及VPC网络流量的情况下,eRDMA可以使用最大200G带宽存储或VPC网络存在流量时,会按照权重在不同的数据流量间进行带宽分配。但神龙CIPU在底层可以保证存储的性能,可以使得带宽的利用更高效,充分释放神龙CIPU的效能。

幻灯片8.JPG

主流的AI框架底层通过多种不同的通讯后端进行多机或多卡通信等,几大集合通讯库比如OpenMPI、Gloo、NCCL对各种集合通信的模式和算法都有各自的实现。


NCCO NVIDIA 针对DPU实现一套开源通讯库,可以通过PCIe和NVLink等通道,实现高速的机器间或GPU卡间的互联借助软硬件协同,在性能优化上有得天独厚的优势,也主流AI框架的推荐通讯后端。eRDMA对NCCO提供了很好的支持,可以做到无修改使用开源的NCCO通讯库可以使能底层的eRDMA设备。相比较传统的TCP通信有更低的延时实现更高的吞吐能力,但可以做到与RDMA通信链路相当的性能。


另外,相比较RDMA,它更适合在云上大规模部署,为用户提供超高性价比普惠大带宽通信链路解决方案。

幻灯片9.JPG

bmgn7ex相比于ebmgn7e采用同样的CPU和GPU配置,但底层采用第四代神龙CIPU,将整机的网络带宽从65G提升200G,提升幅度接近200%。同时通过eRDMA技术使得通信延迟相比VPC网络降低了80%。

我们选择了几个典型的多机训练应用场景对两者进行了对比测试。ebmgn7ex整体性能提升大约30%尤其在对时延以及带宽强依赖的场景中,比如vgg16、语音变换以及mae等,性能提升超过40%。


与此同时,在用户成本接近的基础上,ebmgn7ex显然展示出了更好的性价比。初步估计,根据用户的业务场景,可实现20%-30%的成本优化。

幻灯片10.JPG

便宜云服务器在2022年发布了CIPU云处理单元。如今,在便宜云服务器上,云服务已经远远不是将一台服务器通过虚拟化分割资源后提供给用户,而通过CIPU智能调度和管理能力,将CIPU、GPU存储网络等分拆为不同的资源池,根据用户的需求灵活地提供相应的服务。


由于存储网络和计算资源相互独立,在使用计算服务时,几类资源都可以根据用户的需求进行动态调整。比如CPU的核数、挂载ESSD数据盘的容量、网络带宽等,都可以根据业务对性能的需求而变化,相对于自建IDC提供了极大的弹性。


基于CIPU,我们做了两件事:


第一将软件硬件化。将原来的虚拟化软件、网络传输、可信计算等功能通过CIPU的硬件加速来实现将云软件功能从服务器的CPU内存里解放出来,让计算资源池独立地提供服务。通过软件硬件化也提高了虚拟化和网络传输等功能的性能。


幻灯片11.JPG


第二,硬件软件化。通过软件定义硬件的方式,在CPU上提供了原本由硬件才能提供的RDMA功能。


当前,支持RDMA功能的主要解决方案有三种,分别为IBRoCE以及iWARPCIPU通过软件定义网络的方式,基于iWARP协议提供RDMA功能。


市面上采用iWARP协议的方案并不多,原因在于iWARP协议基于TCP传输相较于RoCE和IB,需要大量内存访问,在大型网络中会影响服务器的CPU性能。并且由于采用了通用的TCP/IP网络设施,无法实现对RDMA传输的监控,在控制拥塞等方面也存在问题。


然而,便宜云服务器采用了CIPU,通过软件订阅的方式,实现了对网络数据的拥塞控制和流量管理。同时,CIPU将原来网络和虚拟化层上的内存和计算工作offload到CIPU的处理器上,不会影响计算节点的性能。

幻灯片12.JPG·

通过以上方式,CIPU规避了iWARP的缺点,以TCP/IPoverlay方式组网。原先便宜云服务器以RoCE协议提供的计算产品,首先需要一套TCPoverlay来做VPC网络,另外需要再组一套RoCE来进行RDMA的数据传输。eRDMA相较于原来的方案,将RDMA合并VPC网络里,整个拓扑变得非常简单便捷


便宜云服务器的网络存储计算资源都连接在VPC网络里,通过CIPU,可以让AZ内所有资源都通过RDMA来进行数据的传输。传统的RoCE、IB网络需要独立新建专门的机房,机房建好后网络拓扑难以改变。eRDMA实例无需新建机房,因此在机房成本方面相较于RoCE网络的方式有很大降低,具性价比。


另外,CIPU软件定义硬件可以实现弹性网络,因此eRDMA的计算集群无需额外的网络配置即可在overlay类上链接AZ里所有资源只要是部署于单一AZ的资源,都可以被拉起提供给同一个计算资源集群使用,弹性能力大幅增强。同时,eRDMA基于通用计算网络,兼容性非常好,可以兼容几乎所有API。

幻灯片13.JPG

正由于eRDMA能够让AZ里几乎任意规模的计算资源汇合成为独立的计算集群,因此非常适合于搭建AI训练集群。基于eRDMA协议,实例采用了ICL处理器每一台机器可以通过eRDMA的200G网络进行互联,在可用区内申请的所有此类实例,互相之间都可以实现RDMA传输。

幻灯片14.JPG

需要特别说明,云上提供资源时一般通过虚拟化层,算力在虚拟化层会有一定的损耗,而便宜云服务器采用CIPU提供金属实例则有所不同。实例前面的EBM三个字母代表了这一台裸金属实例整机的物理资源通过CIPU直接透传给用户,中间没有虚拟化层的损耗,在CIPU的云管理加持下,用户可以获得一台完整的物理机能力。


实例的价格相比于此前64G网络带宽的裸金属实例ebmgn7e反而有所降低这正CIPU对网络的兼容性带来的高性价比红利。同时,并非只有训练集群业务才能选择实例,一些通用的单机训练以及推理业务也可以选择。比如当前非常火的ChatGPTChatGPT模型在推理时需要500G以上的显存,因此该实例也是大模型推理的最优选择。


当前在云上可以通过测链接申请使用eRDMA实例。申请实例时的步骤选项也于此前有所不同。


第一,在操作系统选择时新增了自动安装eRDMA驱动选项,建议勾选,勾选后在实例内可以自动安装eRDMA的网络驱动


第二,在网络配置方面,ebmgn7ex需要选择两个固定的弹性网卡,两个弹性网卡不可释放,每个网卡可以提供100G的网络带宽在勾选上右的eRDMA后,即可支持RDMA传输。在使用或测试中某些应用出现异常,也可以将勾选取消,此时实例的网络带宽仍然不变,但是仅支持VPC网络连接实例。

幻灯片15.JPG

便宜云服务器将会逐步推出更多产品来支持eRDMA。ebmgn7ex实例也会在便宜云服务器上形成完整的生态通过基于eRDMA互联,用户在集群中可以接入ECS通用计算实例,可以接入支持eRDMACPFS分布式存储来获得更低延时。并且由于裸金属与CPFS实现了RDMA传输,因此借助GPU Direct Storage功能,可以快速获取训练数据时节省更多NC的资源。


同时公共云上原有的安全功能以及便宜云服务器在人工智能方面提供的各类PaaS服务,比如ACK容器服务、serverless计算服务、PAI平台的所有功能也都可以运行在基于eRDMA的实例上。

幻灯片16.JPG

使用便宜云服务器支持eRDMA的实例用户,可以获得极高的计算集群弹性能力以分钟级极快速度在云上搭建RDMA训练集群,并根据需求进行弹性扩容,将极大节省训练业务时间。


eRDMA具有非常高的带宽,所有支持eRDMA的实例可以以G的带宽进行RDMA的低延时通信,并不会增加成本节省了搭建机房的费用。更重要的,公共云的生态可以提供非常优质的计算服务,比如基于业务实现弹性伸缩ossCPFS等各类存储。


eRDMA还提供方便的管理能力,以及公共云基于神农架构提供的针对计算存储网络的稳定性保障极高的稳定性也节省了运维和维护成本


在便宜云服务器the more you buythe more you save。

李伟男 宋迪.jpg

点击链接进入便宜云服务器开发者社区直播间 / 扫描上方海报中的二维码进入NVIDIA GTC官网,均可观看完整视频。



版权声明:本文内容由便宜云服务器实名注册用户自发贡献,版权归原作者所有,便宜云服务器开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《便宜云服务器开发者社区用户服务协议》和《便宜云服务器开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
ViT系列 | 24小时用1张GPU训练一个Vision Transformer可还好?
ViT系列 | 24小时用1张GPU训练一个Vision Transformer可还好?
20 0
一块GPU训练TB级推荐模型不是梦,OneEmbedding性能一骑绝尘(2)
一块GPU训练TB级推荐模型不是梦,OneEmbedding性能一骑绝尘
17 0
一块GPU训练TB级推荐模型不是梦,OneEmbedding性能一骑绝尘(1)
一块GPU训练TB级推荐模型不是梦,OneEmbedding性能一骑绝尘
25 0
PyTorch宣布支持苹果M1芯片GPU加速:训练快6倍,推理提升21倍
PyTorch宣布支持苹果M1芯片GPU加速:训练快6倍,推理提升21倍
32 0
单个GPU无法训练GPT-3,但有了这个,你能调优超参数了
单个GPU无法训练GPT-3,但有了这个,你能调优超参数了
32 0
切换JAX,强化学习速度提升4000倍!牛津大学开源框架PureJaxRL,训练只需GPU(2)
切换JAX,强化学习速度提升4000倍!牛津大学开源框架PureJaxRL,训练只需GPU
10 0
切换JAX,强化学习速度提升4000倍!牛津大学开源框架PureJaxRL,训练只需GPU(1)
切换JAX,强化学习速度提升4000倍!牛津大学开源框架PureJaxRL,训练只需GPU
19 0
【Pytorch神经网络实战案例】01 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法①
【Pytorch神经网络实战案例】01 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法①
28 0
【Pytorch神经网络实战案例】02 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法②
【Pytorch神经网络实战案例】02 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-方法②
22 0
【Pytorch神经网络实战案例】03 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-测试方法
【Pytorch神经网络实战案例】03 CIFAR-10数据集:Pytorch使用GPU训练CNN模版-测试方法
25 0
+关注
弹性计算-百晓生
专注分享云计算、云服务器相关知识,做技术先进、性能优异、稳如磐石的弹性计算!
文章
问答
视频
相关电子书
更多
GPU在超大规模深度学习中的发展和应用
立即下载
低代码开发师(初级)实战教程
立即下载
阿里巴巴DevOps 最佳实践手册
立即下载


http://www.vxiaotou.com