當前位置:
首頁 > 科技 > 詳解RDMA架構和技術原理

詳解RDMA架構和技術原理

面對高性能計算、大數據分析和浪涌型IO高並發、低時延應用,現有TCP/IP軟硬體架構和應用高CPU消耗的技術特徵根本不能滿足應用的需求。這要有體現在處理延時過大,數十微秒;多次內存拷貝、中斷處理,上下文切換、複雜的TCP/IP協議處理、網路延時過大、存儲轉發模式和丟包導致額外延時。接下來我們繼續討論RDMA技術、原理和優勢,看完文章你就會發現為什麼RDMA可以更好的解決這一系列問題。

RDMA是一種遠端內存直接訪問技術,詳細介紹請參看RDMA(遠程直接內存訪問)技術淺析文章。RDMA最早專屬於Infiniband架構,隨著在網路融合大趨勢下出現的RoCE和iWARP,這使高速、超低延時、極低CPU使用率的RDMA得以部署在目前使用最廣泛的乙太網上。

RDMAC(RDMA Consortium)和IBTA(InfiniBand Trade Association)主導了RDMA發展,RDMAC是IETF的一個補充並主要定義的是iWRAP和iSER,IBTA是infiniband的全部標準制定者,並補充了RoCE v1 v2的標準化。IBTA解釋了RDMA傳輸過程中應具備的特性行為,而傳輸相關的Verbs介面和數據結構原型是由另一個組織OFA(Open Fabric Alliance)來完成。

相比傳統DMA的內部匯流排IO,RDMA通過網路在兩個端點的應用軟體之間實現Buffer的直接傳遞;相比比傳統的網路傳輸,RDMA又無需操作系統和協議棧的介入。RDMA可以輕易實現端點間的超低延時、超高吞吐量傳輸,而且基本不需要CPU、OS等資源介入,也不必再為網路數據的處理和搬移耗費過多其他資源。

InfiniBand通過以下技術保證網路轉發的低時延(亞微秒級),採用Cut-Through轉發模式,減少轉發時延;基於Credit的流控機制,保證無丟包;硬體卸載;Buffer儘可能小,減少報文被緩衝的時延

iWARP(RDMA over TCP/IP)利用成熟的IP網路;繼承RDMA的優點;TCP/IP硬體實現成本高,但如果採用傳統IP網路丟包對性能影響大

RoCE性能與IB網路相當;DCB特性保證無丟包;需要乙太網支持DCB特性;以太交換機時延比IB交換機時延要稍高一些

RoCEv2針對RoCE進行了一些改進,如引入IP解決擴展性問題,可以跨二層組網;引入UDP解決ECMP負載分擔等問題。

基於InfiniBand的RDMA是在2000年發布規範,屬於原生RDMA;基於TCP/IP的RDMA稱作iWARP,在 2007年形成標準,主要包括MPA/ DDP/ RDMAP三層子協議;基於Ethernet的RDMA叫做RoCE,在2010年發布協議,基於增強型乙太網並將傳輸層換成IB傳輸層實現。

擴展RDMA API介面以兼容現有協議/應用,OFED(Open Fabrics Enterprise Distribution)協議棧由OpenFabric聯盟發布,分為Linux和windows版本,可以無縫兼容已有應用。通過使已有應用與RDMA結合後,性能成倍提升。

應用和RNIC(RDMA-aware Network Interface Controller)之間的傳輸介面層(Software Transport Interface)被稱為Verbs。OFA(Open Fabric Alliance)提供了RDMA傳輸的一系列Verbs API,開發了OFED(Open Fabric Enterprise Distribution)協議棧,支持多種RDMA傳輸層協議。

OFED向下除了提供RNIC(實現 RDMA 和LLP( Lower Layer Protocol))基本的隊列消息服務外,向上還提供了ULP(Upper Layer Protocols),通過ULP上層應用不需直接和Verbs API對接,而是藉助於ULP與應用對接,這樣使得常見的應用不需要做修改就可以跑在RDMA傳輸層上。

在Infiniband/RDMA的模型中,核心是如何實現應用之間最簡單、高效和直接的通信。RDMA提供了基於消息隊列的點對點通信,每個應用都可以直接獲取自己的消息,無需操作系統和協議棧的介入。

消息服務建立在通信雙方本端和遠端應用之間創建的Channel-IO連接之上。當應用需要通信時,就會創建一條Channel連接,每條Channel的首尾端點是兩對Queue Pairs(QP),每對QP由Send Queue(SQ)和Receive Queue(RQ)構成,這些隊列中管理著各種類型的消息。QP會被映射到應用的虛擬地址空間,使得應用直接通過它訪問RNIC網卡。除了QP描述的兩種基本隊列之外,RDMA還提供一種隊列Complete Queue(CQ),CQ用來知會用戶WQ上的消息已經被處理完。

RDMA提供了一套軟體傳輸介面,方便用戶創建傳輸請求Work Request(WR),WR中描述了應用希望傳輸到Channel對端的消息內容,WR通知QP中的某個隊列Work Queue(WQ)。在WQ中,用戶的WR被轉化為Work Queue Ellement(WQE)的格式,等待RNIC的非同步調度解析,並從WQE指向的Buffer中拿到真正的消息發送到Channel對端。

RDMA中SEND/RECEIVE是雙邊操作,即必須要遠端的應用感知參與才能完成收發。READ和WRITE是單邊操作,只需要本端明確信息的源和目的地址,遠端應用不必感知此次通信,數據的讀或寫都通過RDMA在RNIC與應用Buffer之間完成,再由遠端RNIC封裝成消息返回到本端。在實際中,SEND /RECEIVE多用於連接控制類報文,而數據報文多是通過READ/WRITE來完成的

對於雙邊操作為例,主機A向主機B(下面簡稱A、B)發送數據的流程如下

1. 首先,A和B都要創建並初始化好各自的QP,CQ

2. A和B分別向自己的WQ中註冊WQE,對於A,WQ=SQ,WQE描述指向一個等到被發送的數據;對於B,WQ=RQ,WQE描述指向一塊用於存儲數據的Buffer。

3. A的RNIC非同步調度輪到A的WQE,解析到這是一個SEND消息,從Buffer中直接向B發出數據。數據流到達B的RNIC後,B的WQE被消耗,並把數據直接存儲到WQE指向的存儲位置。

4. AB通信完成後,A的CQ中會產生一個完成消息CQE表示發送完成。與此同時,B的CQ中也會產生一個完成消息表示接收完成。每個WQ中WQE的處理完成都會產生一個CQE。

雙邊操作與傳統網路的底層Buffer Pool類似,收發雙方的參與過程並無差別,區別在零拷貝、Kernel Bypass,實際上對於RDMA,這是一種複雜的消息傳輸模式,多用於傳輸短的控制消息

對於單邊操作,以存儲網路環境下的存儲為例(A作為文件系統,B作為存儲介質),數據的流程如下

1. 首先A、B建立連接,QP已經創建並且初始化。

2. 數據被存檔在A的buffer地址VA,注意VA應該提前註冊到A的RNIC,並拿到返回的local key,相當於RDMA操作這塊buffer的許可權。

3. A把數據地址VA,key封裝到專用的報文傳送到B,這相當於A把數據buffer的操作權交給了B。同時A在它的WQ中註冊進一個WR,以用於接收數據傳輸的B返回的狀態。

4. B在收到A的送過來的數據VA和R_key後,RNIC會把它們連同存儲地址VB到封裝RDMA READ,這個過程A、B兩端不需要任何軟體參與,就可以將A的數據存儲到B的VB虛擬地址。

5. B在存儲完成後,會向A返回整個數據傳輸的狀態信息。

單邊操作傳輸方式是RDMA與傳統網路傳輸的最大不同,只需提供直接訪問遠程的虛擬地址,無須遠程應用的參與其中,這種方式適用於批量數據傳輸。

簡單總結

Infiniband的成功取決於兩個因素,一是主機側採用RDMA技術,可以把主機內數據處理的時延從幾十微秒降低到幾微秒,同時不佔用CPU;二是InfiniBand網路的採用高帶寬(40G/56G)、低時延(幾百納秒)和無丟包特性

隨著乙太網的發展,也具備高帶寬和無丟包能力,在時延方面也能接近InfiniBand交換機的性能,所以RDMA over Ethernet(RoCE)成為必然,且RoCE組網成本更低。未來RoCE、iWARP和Infiniband等基於RDMA技術產品都會得到長足的發展。

溫馨提示:


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 架構師技術聯盟 的精彩文章:

一文淺析NVMe over Fabric技術發展簡史
全面解析存儲加密盤技術

TAG:架構師技術聯盟 |