當前位置:
首頁 > 最新 > 重磅!GitHub發布開源負載均衡組件GLB

重磅!GitHub發布開源負載均衡組件GLB

導讀:GitHub GLB director 是 GitHub 最近開源的負載均衡器,定位為更好的數據中心負載均衡器,本文詳細介紹了 GLB 特性。

在GitHub,我們在網路邊緣的metal cloud上每秒處理數萬個請求。 我們之前文章已經介紹過GLB,這是我們針對裸機數據中心的可擴展負載均衡解決方案,它支持大多數GitHub的對外服務,並且還為我們最關鍵的內部系統提供負載均衡服務,例如高可用MySQL集群。 今天,我們很高興能夠分享有關負載均衡器設計的更多細節,並將GLB Director開源

GLB Director是4層負載均衡器,可在大量物理機器上擴展單個IP地址,同時嘗試在修改期間最大限度地減少連接中斷。 GLB Director不會替換像haproxy和nginx這樣的服務,而是部署在這些服務(或任何TCP服務)之前,允許它們跨多個物理機器擴展,而不需要每台機器都有唯一的IP地址。

使用ECMP擴展IP

4層負載均衡器的基本屬性是能夠使用單個IP地址在多個伺服器之間實現均衡連接。 為了擴展單個IP以處理更多的流量,我們不僅需要在後端伺服器之間進行流量拆分,還需要能夠擴展負載均衡器本身。 這實際上是另一層負載均衡。

通常,我們將IP地址視為單個物理機器,將路由器視為將數據包移動到下一個最近路由器的機器。 在最簡單的情況下,總是有一個最佳的下一跳,路由器選擇該跳並轉發所有數據包直到達到目的地。

實際上,大多數網路都要複雜得多。 兩台計算機之間通常有多條路徑可用,例如,使用多個ISP或者兩台路由器通過多條物理電纜連接在一起以增加容量並提供冗餘。 這是等價多路徑(ECMP)路由發揮作用的地方 - 而不是由路由器選擇單個最佳下一跳,ECMP中很多路徑具有相同成本(通常定義為到目的地的AS的數量), 路由器分散流量以便在所有可用的相同成本路徑之間均衡連接。

ECMP通過對每個數據包進行hash以確定其中一個可用路徑。此處使用的hash函數因設備而異,但通常是基於源和目標IP地址以及TCP流量的源和目標埠的一致性hash。這意味著同一個TCP連接的多個數據包通常會遍歷相同的路徑,這意味著即使路徑具有不同的延遲,數據包也會以相同的順序到達。值得注意的是,在這種情況下,路徑可以在不中斷連接的情況下進行更改,因為它們總是最終位於同一個目標伺服器上,此時它所採用的路徑大多無關緊要。

ECMP的另一種用法是當我們想要跨多個伺服器而不是跨多個路徑上的同一伺服器時。每個伺服器都可以使用BGP或其他類似的網路協議使用相同的IP地址,從而使連接在這些伺服器之間進行分片,路由器不知道連接是在不同的地方處理的,而非傳統做法那樣所有的連接都同一台機器上處理。

雖然ECMP會像對流量進行分片,但它有一個巨大的缺點:當相同IP的伺服器更改(或沿途的任何路徑或路由器發生變化)時,連接必須重新均衡,才能保證每個伺服器上的連接比較均衡。 路由器通常是無狀態設備,只是為每個數據包做出最佳決策而不考慮它所屬的連接,這意味著在這種情況下某些連接會中斷。

在上面的例子中,我們可以想像每種顏色代表一個活動的連接。 添加新的代理伺服器使用相同的IP。 路由器保證一致性哈希,將1/3連接移動到新伺服器,同時保持2/3連接在老伺服器上。 不幸的是,對於進行中的1/3連接,數據包現在到達了無連接狀態的伺服器,因此連接會失敗。

將director/proxy分離

以前僅使用ECMP的解決方案的問題在於它不知道給定數據包的完整上下文,也不能為每個數據包/連接存儲數據。事實證明,通常使用Linux Virtual Server(LVS)等工具。我們創建了一個新的「director」伺服器層,它通過ECMP從路由器獲取數據包,但不是依靠路由器的ECMP hash來選擇後端代理伺服器,而是對所有鏈接控制hash和存儲狀態(選擇後端)。當我們更改代理層伺服器時,director層有望不變,我們的連接也不會斷掉。

雖然這在許多情況下效果很好,但它確實有一些缺點。在上面的示例中,我們同時添加了LVS director和後端代理伺服器。新的director接收到一些數據包,但是還沒有任何狀態(或者具有延遲狀態),因此將其作為新連接進行hash處理並可能使其出錯(並導致連接失敗)。 LVS的典型解決方法是使用多播連接同步來保持所有LVSdirector伺服器之間共享的連接狀態。這仍然需要傳播連接狀態,並且仍然需要重複狀態 - 不僅每個代理都需要Linux內核網路堆棧中每個連接的狀態,而且每個LVSdirector還需要存儲連接到後端代理伺服器的映射。

將所有狀態從director層移除

當我們設計GLB時,我們決定要改善這種情況而不是重複狀態。 通過使用已存儲在代理伺服器中的流狀態作為維護來自客戶端的已建立Linux TCP連接的一部分,GLB採用與上述方法不同的方法。

對於每個進入的連接,我們選擇可以處理該連接的主伺服器和輔助伺服器。 當數據包到達主伺服器且無效時,會將數據包轉發到輔助伺服器。 選擇主/輔助伺服器的散列是預先完成一次,並存儲在查找表中,因此不需要在每個流或每個數據包的基礎上重新計算。 添加新的代理伺服器時,對於1/N連接,它將成為新的主伺服器,舊的主伺服器將成為輔助伺服器。 這允許現有流程完成,因為代理伺服器可以使用其本地狀態(單一事實來源)做出決策。 從本質上講,這使得數據包在到達保持其狀態的預期伺服器時具有「第二次機會」。

即使director仍然會將連接發送到錯誤的伺服器,該伺服器也會知道如何將數據包轉發到正確的伺服器。 就TCP流而言,GLBdirector層是完全無狀態的:director伺服器可以隨時進出,並且總是選擇相同的主/輔伺服器,只要它們的轉發表匹配(但它們很少改變)。 在變更代理時有些細節需要注意,我們將在下面介紹。

維護Hash集合不變

GLB Director設計的核心歸結為始終如一地選擇主伺服器和輔助伺服器,並允許代理層伺服器根據需要排空和填充。 我們認為每個代理伺服器都有一個狀態,當有伺服器加入或者退出時調整狀態。

我們創建一個靜態二進位轉發表,它以相同方式在每個控制器伺服器上生成,以將進入的連接映射到給定的主伺服器和輔助伺服器。 我們並沒有採用在數據包處理時從所有可用伺服器中選擇伺服器的這種複雜邏輯,而是通過創建表(65k行)這種間接的方式,每行包含主伺服器和輔助伺服器IP地址。 該表以二維數組的方式將數據存儲在內存中,每個表大約512kb。 當數據包到達時,我們始終將其(僅基於數據包數據)hash到該表中的同一行(使用hash作為數組的索引),這提供了一致的主伺服器和輔助伺服器對。

我們希望每個伺服器在主要和輔助欄位中大致相同,並且永遠不會出現在同一行中。 當我們添加新伺服器時,我們希望某些行使其主伺服器成為輔助伺服器,並且新伺服器將成為主伺服器。 同樣,我們希望新伺服器在某些行中成為輔助伺服器。 當我們刪除伺服器時,在它是主伺服器的任何行中,我們希望輔助伺服器成為主伺服器,而另一個伺服器則成為輔助伺服器。

這聽起來很複雜,但可以用幾個不變數簡潔地概括:

當我們更改伺服器集時,應保持現有伺服器的相對順序。

伺服器的順序應該是可計算的,除了伺服器列表之外沒有任何其他狀態(可能還有一些預定義的種子)。

每個伺服器在每行中最多應出現一次。

每個伺服器在每列中的出現次數應大致相同。

針對上述的一些問題,集合hash是一個理想的選擇,因為它可以很好地滿足這些不變數。 每個伺服器(在我們的例子中,IP)都與行號一起進行hash,伺服器按該hash(只是一個數字)進行排序,並且我們獲得該給定行的伺服器的唯一順序。 我們分別將前兩個作為主要和次要。

將保持相對順序,因為無論包含哪些其他伺服器,每個伺服器的hash都是相同的。 生成表所需的唯一信息是伺服器的IP。由於我們只是對一組伺服器進行排序,因此伺服器只出現一次。 最後,如果我們使用偽隨機的良好hash函數,那麼排序將是偽隨機的,因此分布將如我們所期望的那樣均勻。

代理(Proxy)相關操作

添加或刪除代理伺服器,我們需要一些特別的處理方式。這是因為轉發表條目僅定義主要/輔助代理,因此排空/故障轉移僅適用單個代理主機。 我們為代理伺服器定義以下有效狀態和狀態轉換:

當代理伺服器處於活動狀態,耗盡或填充時,它將包含在轉發表條目中。 在穩定狀態下,所有代理伺服器都是活動的,並且上面描述的集合點散列將在主列和輔助列中具有大致均勻且隨機的每個代理伺服器分布。

當代理伺服器轉換為耗盡時,我們通過交換我們原本包含的主要和次要條目來調整轉發表中的條目:

這具有將數據包發送到先前次要的伺服器的效果。 由於它首先接收數據包,它將接受SYN數據包,因此接受任何新連接。 對於任何不理解為與本地流有關的數據包,它將其轉發到其他伺服器(先前的主伺服器),這允許完成現有連接。

這樣可以優雅地耗盡所需的連接伺服器,之後可以完全刪除它,並且代理可以隨機填充到第二個空槽:

填充中的節點看起來就像活動一樣,因為該表本身允許第二次機會:

此實現要求一次只有一個代理伺服器處於活動狀態以外的任何狀態,這實際上在GitHub上運行良好。對代理伺服器的狀態更改可以與需要維護的最長連接持續時間一樣快。我們正致力於設計的擴展,不僅支持主要和次要,而且一些組件(如下面列出的標題)已經包含對任意伺服器列表的初始支持。

數據中心內封裝

現在有了一個演算法來一致地選擇後端代理伺服器,但是如何在數據包內把輔助伺服器(secondary server )的信息也封裝進去呢?這樣主伺服器可以在不理解數據包的情況下轉發數據包。

LVS 的傳統方式是使用IP over IP(IPIP)隧道。客戶端 IP 數據包封裝在內部IP數據包內,並轉發到代理伺服器,代理伺服器對其進行解封裝。但很難在 IPIP 數據包中編碼其他伺服器的元數據,因為唯一可用的空間是 IP 選項,數據中心路由器傳遞未知 IP 的數據包到處理軟體(稱之為「第2層慢速路徑」),速度從每秒數百萬到數千個數據包。

為了避免這種情況,需要將數據隱藏在路由器不同數據包格式中,避免它試圖去理解。我們最初採用原始 Foo-over-UDP(FOU)和自定義 GRE載荷(payload),基本上封裝了 UDP 數據包中的所有內容。我們最近轉換到通用 UDP 封裝(GUE),它提供了封裝內部 IP 協議的標準 UDP 數據包。我們將輔助伺服器的 IP 放在GUE標頭的私有數據中。從路由器的角度來看,這些數據包都是兩個普通伺服器之間的內部數據中心 UDP 數據包。

使用 UDP 的另一個好處是源埠可以使用每個連接的哈希填充,以便它們通過不同的路徑(在數據中心內使用ECMP)在數據中心內流動,並可在代理伺服器的 NIC 的不同 RX 隊列上接收消息(類似使用 TCP/IP 頭欄位的哈希)。這對 IPIP 是不可能的,因為大多數數據中心的 NIC 只能理解普通 IP,TCP/IP 和 UDP/IP。值得注意的是,NIC 無法查看 IP/IP 數據包。

當代理伺服器想要將數據包發送回客戶端時,它不需要封裝或通過我們的導向器層(director tier)返回,它可以直接發送數據到客戶端(通常稱為「Direct Server Return」)。這是典型的負載均衡器設計,對於內容提供商尤其有用,因為大多數情況都是出站流量遠大於入站流量。

數據包流如下圖所示:

引入DPDK

自從首次公開討論了我們的初始設計以來,我們已經完全使用 DPDK重寫了 glb-director 。DPDK 是一個開源的通過繞過Linux內核,允許從用戶空間進行非常快速的數據包處理的項目。這樣就能夠在普通 NIC 上通過 CPU 上實現 NIC 線路速率處理,並可輕鬆擴展導向器層,以處理與公共連接所需的入站流量一樣多的流量。這在防 DDoS 攻擊中尤為重要,我們不希望負載均衡器成為瓶頸。

GLB 最初的目標之一是可以在通用數據中心的硬體上運行,而無需任何特殊的硬體配置。 GLB 的 Director 和代理伺服器都可像數據中心的普通伺服器一樣供應。每個伺服器都有一對綁定的網路介面,這些介面在 GLB Director 伺服器上的 DPDK 和 Linux 系統之間共享。

現代 NIC 支持SR-IOV,這種技術可以使單個 NIC 從操作系統的角度看起來像多個 NIC。這通常由虛擬機管理程序使用,以要求真實 NIC(「Physical Function」)為每個 VM 創建多個虛擬 NIC(「Virtual Functions」)。為了使 DPDK 和 Linux 內核能夠共享 NIC,我們使用 flow bifurcation,它將特定流量(目標是 GLB IP 地址)發送給我們DPDK 在 Virtual Function 上處理,同時將剩餘的數據包與 Linux 內核的網路堆棧保留在 Physical Function 上。

我們發現 Virtual Function 上 DPDK 的數據包處理速率可以滿足要求。 GLB Director 使用 DPDK Packet Distributor模式來分發封裝數據包的任務到機器上的 CPU,支持任意數量的 CPU 核心,因為它是無狀態的,可以高度並行化。

GLB Director 支持匹配和轉發包含 TCP 有效負載的入站 IPv4 和 IPv6 數據包,以及作為 Path MTU Discovery的一部分的入站 ICMP Fragmentation Required 消息。


一個典型的問題是,在創建(或使用)那些使用了低級原語(例如直接與NIC通信)但是高速運行的技術時,它們變得非常難以測試。作為創建GLB Director的一部分,我們也創建了一個測試環境,支持對我們的DPDK應用進行簡單的端對端包流測試,通過影響DPDK的方式支持一個環境抽象層(EAL),允許物理NIC和基於libpcap的本地介面,在應用視圖中是相同的。

這允許我們在Scapy中寫測試,使用簡單的Python的lib包查看,操作和寫數據包。通過創建一個Linux的虛擬網卡驅動,一邊用Scapy,另一邊用DPDK,我們能傳輸定製的包並且驗證我們軟體在另一邊支持的功能,這是一個完整GUE封裝的後端代理服務期望的數據包。

該方法允許我們測試更多的複雜行為,例如為了正確路由,遍歷傳輸層的ICMPv4/ICMPv6頭獲取源IP和TCP埠,以便正確轉發來自外部路由器的ICMP消息。

健康檢查

GLB的設計包含了優雅地處理伺服器故障的部分。目前設計包含主/備,對於給定的轉發表/客戶端,意味著我們可以通過健康檢查通過觀察每個Director來解決單伺服器故障。我們運行一個名為glb-healthcheck的服務,它不斷驗證每個後端伺服器的GUE隧道和任意HTTP埠。

當伺服器出現故障時,我們將切換主/備,將備換成主。這是伺服器的「軟切換」,支持故障轉移的好辦法。如果健康檢查失敗是誤報,則連接不會中斷,它們只會換一條不同的路徑遍歷。


構成GLB的最後一個組件是Netfilter模塊和iptables的目標,它在每個代理伺服器上運行,並提供「第二次機會」進行設計。

此模塊提供了一個簡單的任務,根據Linux內核TCP堆棧,確定每個GUE數據包的內部TCP / IP數據包是否在本地有效,如果不是,則將其轉發到下一個代理伺服器(備伺服器),而不是在當前伺服器解封裝。

在數據包是SYN(新連接)或在本地對已建立的連接有效的情況下,當前伺服器會接收它。然後,我們接收GUE包,使用包含fou模塊的Linux 內核4.x GUE在本地處理它。

已經開源

當我們準備開始寫一個更好的數據中心負載均衡器時,我們決定將其開源,以便其他人可以從我們的工作中受益。我們很高興能在github/glb-director上開源所有這些組件。我們允許其他人能使用它,並且將它作為負載均衡的通用解決方案,在物理數據中心環境中的商用硬體上運行。

開源項目地址:

https://github.com/github/glb-director

英文原文:

https://githubengineering.com/glb-director-open-source-load-balancer/

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 高可用架構 的精彩文章:

PHP也能實現區塊鏈?基礎結構篇
面對Envoy來勢洶洶,Nginx如何應對Service Mesh時代的挑戰?

TAG:高可用架構 |