国产乱对白刺激视频在线观看_欧美亚洲日韩国产激情_亚洲一区中文字幕在线观看_被窝国产理论一二三影院_欧美日韩欧美国产_欧洲猛男少妇又大又粗_91青青草等最新内容!_51国产偷自视频区视频在线播放_亚洲中文字幕30页_东北老熟女疯狂作爱视频

027-8220 1101

新聞動(dòng)態(tài)

首页 >> 新聞動(dòng)態(tài) >>公司新聞 >> 生成式AI對(duì)數(shù)據(jù)中心網(wǎng)絡(luò)的影響
详细内容

生成式AI對(duì)數(shù)據(jù)中心網(wǎng)絡(luò)的影響

时间:2023-12-05     


以 ChatGPT 為代表的生成式 AI 有大算力、大數(shù)據(jù)、大模型的典型特點(diǎn),首先,其基于大規(guī)模無(wú)標(biāo)注數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,再通過(guò)少量標(biāo)注微調(diào),大幅降低了對(duì)數(shù)據(jù)標(biāo)注要求;其次,生成式 AI的預(yù)訓(xùn)練大模型具有多模態(tài)(文字、圖片、程序、視頻等)、跨模態(tài)(“文生文”“文生圖”“圖生圖”)內(nèi)容生成能力,有較強(qiáng)的通用性和跨場(chǎng)景使用能力。此外,與傳統(tǒng) AI 相比,生成式 AI能夠更有效地捕捉用戶的意圖,以理解上下文,使對(duì)話更流暢自然,具有更強(qiáng)的邏輯和組織能力。

 

生成式 AI 大模型對(duì)數(shù)據(jù)中心網(wǎng)絡(luò)的影響主要體現(xiàn)在模型訓(xùn)練所使用的高性能集群,大模型訓(xùn)練需要在傳統(tǒng)數(shù)據(jù)中心網(wǎng)絡(luò)中為高性能集群的每個(gè)POD單獨(dú)構(gòu)建一個(gè)高速數(shù)據(jù)交換平面,用于不同服務(wù)器上的 GPU 間遠(yuǎn)程直接數(shù)據(jù)存取(remote direct memory access,RDMA)數(shù)據(jù)傳輸。高速數(shù)據(jù)交換平面需要有如下能力。

 

(1)高帶寬

大模型訓(xùn)練需要將算法、數(shù)據(jù)拆分到數(shù)百或者數(shù)千塊GPU卡上,因此GPU卡間需要較高的互聯(lián)帶寬。當(dāng)前服務(wù)器內(nèi)部GPU之間的互聯(lián)總線帶寬已經(jīng)達(dá)到數(shù)太比特每秒,而單個(gè)服務(wù)器對(duì)外僅能提供200 Gbit/s×8合計(jì)1.6 Tbit/s的接入能力,因此,服務(wù)器之間的網(wǎng)絡(luò)帶寬已成為制約AI集群性能的瓶頸。對(duì)于服務(wù)器之間的組網(wǎng),國(guó)外大多采用 InfiniBand 網(wǎng)絡(luò),由于 InfiniBand網(wǎng)絡(luò)技術(shù)封閉,國(guó)內(nèi)更傾向采用 RoCE 無(wú)損以太網(wǎng)。當(dāng)前無(wú)論是InfiniBand網(wǎng)絡(luò)還是RoCE,都已經(jīng)開(kāi)始引入100 Gbit/s/200 Gbit/s接入端口和400 Gbit/s匯聚端口,并開(kāi)始向800 Gbit/s端口能力演進(jìn)。

 

(2)低時(shí)延

大模型的訓(xùn)練過(guò)程中跨GPU數(shù)據(jù)交換頻繁發(fā)生,除高帶寬外,低時(shí)延對(duì)于大模型的訓(xùn)練也非常重要。InfiniBand網(wǎng)絡(luò)時(shí)延最低可以低于1 μs,采用 RoCE 技術(shù)的無(wú)損以太網(wǎng)時(shí)延目前在 5~10 μs水平,需要進(jìn)一步優(yōu)化。

 

(3)零丟包

RDMA傳輸對(duì)丟包的容忍度極低,千分之一的丟包率將導(dǎo)致傳輸效率急劇下降,2%的丟包率將導(dǎo)致RDMA吞吐率下降為0。因此,以太網(wǎng)承載RDMA協(xié)議時(shí),丟包率要盡可能小,最好能做到零丟包。

 

除上述 3 個(gè)能力要求外,采用無(wú)損以太網(wǎng)構(gòu)建高性能數(shù)據(jù)交換平面時(shí),設(shè)備和組網(wǎng)模式對(duì)網(wǎng)絡(luò)規(guī)模、性能也會(huì)造成一定影響。采用全盒式兩層CLOS組網(wǎng)可以支持千塊GPU卡全互聯(lián),而使用框式(Chassis)交換機(jī)單層CLOS組網(wǎng)即可實(shí)現(xiàn)千塊GPU卡全互聯(lián),使用Chassis加盒式交換機(jī)兩層組網(wǎng)可實(shí)現(xiàn)超大規(guī)模萬(wàn)塊級(jí) GPU 卡全互聯(lián),不過(guò)兩層組網(wǎng)相較單層組網(wǎng)時(shí)延有少許增加。

 

除上述成熟的無(wú)損以太網(wǎng)設(shè)備組網(wǎng)模式外,還可以使用分布式解耦機(jī)框(distributed disaggregated chassis,DDC)新型組網(wǎng)模式。DDC可提供端到端確定性流控,基于信元交換的超低時(shí)延,其時(shí)延和無(wú)損性能可比肩 InfiniBand 網(wǎng)絡(luò),但目前技術(shù)和產(chǎn)品尚不成熟,還需要進(jìn)一步發(fā)展完善。

 

對(duì)于中小模型的訓(xùn)練以及大、中、小各類模型的推理,不需要GPU間高速數(shù)據(jù)交換,當(dāng)前數(shù)據(jù)中心網(wǎng)絡(luò)技術(shù)和組網(wǎng)均可以滿足,無(wú)須特殊的網(wǎng)絡(luò)設(shè)計(jì)。

 


seo seo