當前位置:
首頁 > 科技 > 一文秒懂分散式架構下的「負載均衡」

一文秒懂分散式架構下的「負載均衡」

在網站創立初期,我們一般都使用單台機器提供集中式服務,但隨著業務量越來越大,無論性能還是穩定性上都有了更大的挑戰。這時候我們就會想到通過擴容的方式來提供更好的服務。

什麼是負載均衡

當前大多數的互聯網系統都使用了伺服器集群技術,集群即將相同服務部署在多台伺服器上構成一個集群整體對外提供服務。

這些集群可以是 Web 應用伺服器集群,也可以是資料庫伺服器集群,還可以是分散式緩存伺服器集群等。

在實際應用中,在 Web 伺服器集群之前總會有一台負載均衡伺服器,負載均衡設備的任務就是作為 Web 伺服器流量的入口,挑選最合適的一台 Web 伺服器,將客戶端的請求轉發給它處理,實現客戶端到真實服務端的透明轉發。

最近幾年很火的「雲計算」以及分散式架構,本質上也是將後端伺服器作為計算資源、存儲資源,由某台管理伺服器封裝成一個服務對外提供。

客戶端不需要關心真正提供服務的是哪台機器,在它看來,就好像它面對的是一台擁有近乎無限能力的伺服器,而本質上,真正提供服務的是後端的集群。

軟體負載解決的兩個核心問題是:選誰、轉發,其中最著名的是 LVS(Linux Virtual Server)。

一個典型的互聯網應用的拓撲結構是這樣的:

負載均衡分類

現在我們知道,負載均衡就是一種計算機網路技術,用來在多個計算機(計算機集群)、網路連接、CPU、磁碟驅動器或其他資源中分配負載,以達到最佳化資源使用、最大化吞吐率、最小化響應時間、同時避免過載的目的。

那麼,這種計算機技術的實現方式有多種。大致可以分為以下幾種,其中最常用的是四層和七層負載均衡。

二層負載均衡

負載均衡伺服器對外依然提供一個 VIP(虛 IP),集群中不同的機器採用相同 IP 地址,但機器的 MAC 地址不一樣。

當負載均衡伺服器接受到請求之後,通過改寫報文的目標 MAC 地址的方式將請求轉發到目標機器實現負載均衡。

三層負載均衡

三層負載均衡和二層負載均衡類似,負載均衡伺服器對外依然提供一個 VIP(虛IP),但集群中不同的機器採用不同的 IP 地址。

當負載均衡伺服器接受到請求之後,根據不同的負載均衡演算法,通過 IP 將請求轉發至不同的真實伺服器。

四層負載均衡

四層負載均衡工作在 OSI 模型的傳輸層,由於在傳輸層,只有 TCP/UDP 協議,這兩種協議中除了包含源 IP、目標 IP 以外,還包含源埠號及目的埠號。

四層負載均衡伺服器在接受到客戶端請求後,之後通過修改數據包的地址信息(IP+埠號)將流量轉發到應用伺服器。

七層負載均衡

七層負載均衡工作在 OSI 模型的應用層,應用層協議較多,常用 http、radius、DNS 等。

七層負載就可以基於這些協議來負載。這些應用層協議中會包含很多有意義的內容。

比如同一個 Web 伺服器的負載均衡,除了根據 IP 加埠進行負載外,還可根據七層的 URL、瀏覽器類別、語言來決定是否要進行負載均衡。

四層和七層負載均衡

對於一般的應用來說,有了 Nginx 就夠了。Nginx 可以用於七層負載均衡。但是對於一些大的網站,一般會採用 DNS+四層負載+七層負載的方式進行多層次負載均衡。

阿里雲的 SLB

常用負載均衡工具

硬體負載均衡性能優越,功能全面,但價格昂貴,一般適合初期或者土豪級公司長期使用。

因此軟體負載均衡在互聯網領域大量使用。常用的軟體負載均衡軟體有 LVS、Nginx、HAProxy 等。LVS/Nginx/HAProxy 是目前使用最廣泛的三種負載均衡軟體。

LVS

LVS(Linux Virtual Server),也就是 Linux 虛擬伺服器,是一個由章文嵩博士發起的自由軟體項目。

使用 LVS 技術要達到的目標是:通過 LVS 提供的負載均衡技術和 Linux 操作系統實現一個高性能、高可用的伺服器群集。

它具有良好可靠性、可擴展性和可操作性,從而以低廉的成本實現最優的服務性能。LVS 主要用來做四層負載均衡。

LVS 架構

LVS 架設的伺服器集群系統由三個部分組成:

最前端的負載均衡層(Loader Balancer)。

中間的伺服器群組層,用 Server Array 表示。

最底層的數據共享存儲層,用 Shared Storage 表示。

在用戶看來所有的應用都是透明的,用戶只是在使用一個虛擬伺服器提供的高性能服務。

LVS 的各個層次的詳細介紹:

Load Balancer 層:位於整個集群系統的最前端,有一台或者多台負載調度器(Director Server)組成,LVS 模塊就安裝在 Director Server 上。

而 Director 的主要作用類似於一個路由器,它含有完成 LVS 功能所設定的路由表,通過這些路由表把用戶的請求分發給 Server Array 層的應用伺服器(Real Server)上。

同時,在 Director Server 上還要安裝對 Real Server 服務的監控模塊 Ldirectord,此模塊用於監測各個 Real Server 服務的健康狀況。在 Real Server 不可用時把它從 LVS 路由表中剔除,恢復時重新加入。

Server Array 層:由一組實際運行應用服務的機器組成,Real Server 可以是 Web 伺服器、Mail 伺服器、FTP 伺服器、DNS 伺服器、視頻伺服器中的一個或者多個。

每個 Real Server 之間通過高速的 LAN 或分布在各地的 WAN 相連接。在實際的應用中,Director Server 也可以同時兼任 Real Server 的角色。

Shared Storage 層:是為所有 Real Server 提供共享存儲空間和內容一致性的存儲區域,在物理上一般由磁碟陣列設備組成。

為了提供內容的一致性,一般可以通過 NFS 網路文件系統共享數據,但 NFS 在繁忙的業務系統中,性能並不是很好。

此時可以採用集群文件系統,例如 Red hat 的 GFS 文件系統、Oracle 提供的 OCFS2 文件系統等。

從整個 LVS 結構可以看出,Director Server 是整個 LVS 的核心,目前用於 Director Server 的操作系統只能是 Linux 和 FreeBSD。

Linux2.6 內核不用任何設置就可以支持 LVS 功能,而 FreeBSD 作為 Director Server 的應用還不是很多,性能也不是很好。

對於 Real Server,幾乎可以是所有的系統平台,Linux、Windows、Solaris、AIX、BSD 系列都能很好地支持。

Nginx

Nginx 是一個網頁伺服器,它能反向代理 HTTP、HTTPS、SMTP、POP3、IMAP 的協議鏈接,以及一個負載均衡器和一個 HTTP 緩存。Nginx 主要用來做七層負載均衡。

並發性能:官方支持每秒 5 萬並發,實際國內一般到每秒 2 萬並發,有優化到每秒 10 萬並發的,具體性能看應用場景。

特點:

模塊化設計:良好的擴展性,可以通過模塊方式進行功能擴展。

高可靠性:主控進程和 worker 是同步實現的,一個 worker 出現問題,會立刻啟動另一個 worker。

內存消耗低:一萬個長連接(keep-alive),僅消耗 2.5MB 內存。

支持熱部署:不用停止伺服器,實現更新配置文件,更換日誌文件、更新伺服器程序版本。

並發能力強:官方數據每秒支持 5 萬並發。

功能豐富:優秀的反向代理功能和靈活的負載均衡策略。

Nginx 的基本工作模式如下圖:

一個 Master 進程,生成一個或者多個 Worker 進程。但這裡 Master 是使用 Root 身份啟動的,因為 Nginx 要工作在 80 埠。

而只有管理員才有許可權啟動小於低於 1023 的埠。Master 主要負責的作用只是啟動 Worker,載入配置文件,負責系統的平滑升級。其他的工作是交給 Worker。

那當 Worker 被啟動之後,也只是負責一些 Web 最簡單的工作,而其他的工作都是由 Worker 中調用的模塊來實現的。

模塊之間是以流水線的方式實現功能的。流水線,指的是一個用戶請求,由多個模塊組合各自的功能依次實現完成的。

比如:第一個模塊只負責分析請求首部,第二個模塊只負責查找數據,第三個模塊只負責壓縮數據,依次完成各自工作來實現整個工作的完成。

它們是如何實現熱部署的呢?我們前面說 Master 不負責具體的工作,而是調用 Worker 工作,它只是負責讀取配置文件。

因此當一個模塊修改或者配置文件發生變化,是由 Master 進行讀取,此時不會影響到 Worker 工作。

在 Master 進行讀取配置文件之後,不會立即把修改的配置文件告知 Worker。

而是讓被修改的 Worker 繼續使用老的配置文件工作,當 Worker 工作完畢之後,直接宕掉這個子進程,更換新的子進程,使用新的規則。

HAProxy

HAProxy 也是使用較多的一款負載均衡軟體。HAProxy 提供高可用性、負載均衡以及基於 TCP 和 HTTP 應用的代理,支持虛擬主機,是免費、快速並且可靠的一種解決方案。

它特別適用於那些負載特大的 Web 站點。運行模式使得它可以很簡單安全的整合到當前的架構中,同時可以保護你的 Web 伺服器不被暴露到網路上。

HAProxy 是一個使用 C 語言編寫的自由及開放源代碼軟體,它提供高可用性、負載均衡,以及基於 TCP 和 HTTP 的應用程序代理。HAProxy 主要用來做七層負載均衡。

常見負載均衡演算法

上面介紹負載均衡技術的時候提到過,負載均衡伺服器在決定將請求轉發到具體哪台真實伺服器時,是通過負載均衡演算法來實現的。

負載均衡演算法可以分為兩類:

靜態負載均衡演算法,包括輪詢、比率、優先權。

動態負載均衡演算法,包括最少連接數、最快響應速度、觀察方法、預測法、動態性能分配、動態伺服器補充、服務質量、服務類型、規則模式。

輪詢(Round Robin):順序循環將請求一次順序循環地連接每個伺服器。當其中某個伺服器發生第二到第七層的故障,BIG-IP 就把它從順序循環隊列中拿出,不參加下一次的輪詢,直到其恢復正常。

以輪詢的方式依次請求調度不同的伺服器;實現時,一般為伺服器帶上權重,這樣有兩個好處:

針對伺服器的性能差異可分配不同的負載。

當需要將某個結點剔除時,只需要將其權重設置為 0 即可。

優點:實現簡單、高效;易水平擴展。

缺點:請求到目的結點的不確定,造成其無法適用於有寫的場景(緩存,資料庫寫)。

應用場景:資料庫或應用服務層中只有讀的場景。

隨機方式:請求隨機分布到各個結點;在數據足夠大的場景能達到一個均衡分布。

優點:實現簡單、易水平擴展。

缺點:同 Round Robin,無法用於有寫的場景。

應用場景:資料庫負載均衡,也是只有讀的場景。

哈希方式:根據 key 來計算需要落在的結點上,可以保證一個同一個鍵一定落在相同的伺服器上。

優點:相同 key 一定落在同一個結點上,這樣就可用於有寫有讀的緩存場景。

缺點:在某個結點故障後,會導致哈希鍵重新分布,造成命中率大幅度下降。

解決:一致性哈希 or 使用 keepalived 保證任何一個結點的高可用性,故障後會有其他結點頂上來。

應用場景:緩存,有讀有寫。

一致性哈希:在伺服器一個結點出現故障時,受影響的只有這個結點上的 key,最大程度的保證命中率。

例如 twemproxy 中的 ketama 方案;生產實現中還可以規劃指定子 key 哈希,從而保證局部相似特徵的鍵能分布在同一個伺服器上。

優點:結點故障後命中率下降有限。

應用場景:緩存。

根據鍵的範圍來負載:根據鍵的範圍來負載,前 1 億個鍵都存放到第一個伺服器,1~2 億在第二個結點。

優點:水平擴展容易,存儲不夠用時,加伺服器存放後續新增數據。

缺點:負載不均;資料庫的分布不均衡。(數據有冷熱區分,一般最近註冊的用戶更加活躍,這樣造成後續的伺服器非常繁忙,而前期的結點空閑很多)

適用場景:資料庫分片負載均衡。

根據鍵對伺服器結點數取模來負載:根據鍵對伺服器結點數取模來負載;比如有 4 台伺服器,key 取模為 0 的落在第一個結點,1 落在第二個結點上。

優點:數據冷熱分布均衡,資料庫結點負載均衡分布。

缺點:水平擴展較難。

適用場景:資料庫分片負載均衡。

純動態結點負載均衡:根據 CPU、IO、網路的處理能力來決策接下來的請求如何調度。

優點:充分利用伺服器的資源,保證多個結點上負載處理均衡。

缺點:實現起來複雜,真實使用較少。

不用主動負載均衡:使用消息隊列轉為非同步模型,將負載均衡的問題消滅;負載均衡是一種推模型,一直向你發數據。

那麼將所有的用戶請求發到消息隊列中,所有的下游結點誰空閑,誰上來取數據處理;轉為拉模型之後,消除了對下行結點負載的問題。

優點:通過消息隊列的緩衝,保護後端系統,請求劇增時不會衝垮後端伺服器;水平擴展容易,加入新結點後,直接取 queue 即可。

缺點:不具有實時性。

應用場景:不需要實時返回的場景。比如,12036 下訂單後,立刻返回提示信息:您的訂單進去排隊了...等處理完畢後,再非同步通知。

比率(Ratio):給每個伺服器分配一個加權值為比例,根椐這個比例,把用戶的請求分配到每個伺服器。

當其中某個伺服器發生第 2 到第 7 層的故障,BIG-IP 就把其從伺服器隊列中拿出,不參加下一次的用戶請求的分配,直到其恢復正常。

優先權(Priority):給所有伺服器分組,給每個組定義優先權,BIG-IP 用戶的請求,分配給優先順序最高的伺服器組(在同一組內,採用輪詢或比率演算法,分配用戶的請求)。

當最高優先順序中所有伺服器出現故障,BIG-IP 才將請求送給次優先順序的伺服器組。這種方式,實際為用戶提供一種熱備份的方式。

最少的連接方式(Least Connection):傳遞新的連接給那些進行最少連接處理的伺服器。

當其中某個伺服器發生第二到第七層的故障,BIG-IP 就把它從伺服器隊列中拿出,不參加下一次的用戶請求的分配,直到其恢復正常。

最快模式(Fastest):傳遞連接給那些響應最快的伺服器。當其中某個伺服器發生第二到第七層的故障,BIG-IP 就把它從伺服器隊列中拿出,不參加下一次的用戶請求的分配,直到其恢復正常。

觀察模式(Observed):連接數目和響應時間以這兩項的最佳平衡為依據為新的請求選擇伺服器。

當其中某個伺服器發生第二到第七層的故障,BIG-IP 就把它從伺服器隊列中拿出,不參加下一次的用戶請求的分配,直到其恢復正常。

預測模式(Predictive):BIG-IP 利用收集到的伺服器當前的性能指標,進行預測分析,選擇一台伺服器在下一個時間片內,其性能將達到最佳的伺服器相應用戶的請求(被 BIG-IP 進行檢測)。

動態性能分配(Dynamic Ratio-APM):根據BIG-IP 收集到的應用程序和應用伺服器的各項性能參數,動態調整流量分配。

動態伺服器補充(Dynamic Server Act):當主伺服器群中因故障導致數量減少時,動態地將備份伺服器補充至主伺服器群。

服務質量(QoS):按不同的優先順序對數據流進行分配。

服務類型(ToS):按不同的服務類型(在 Type of Field 中標識)負載均衡對數據流進行分配。

規則模式:針對不同的數據流設置導向規則,用戶可自行調整。

負載均衡的幾種演算法 Java 實現代碼

輪詢

加權隨機負載均衡演算法

隨機負載均衡演算法

負載均衡 ip_hash 演算法

作者:陳千平,13年軟體研發從業經驗,快速學習新鮮事物,自我驅動追求卓越,積極應對問題和變化。熟練掌握.NET、Java服務端開發、iOS、BI資料庫開發,多年的移動平台和互聯網平台研發管理經驗。

出處:轉載自DBAplus社群

溫馨提示:


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 架構師技術聯盟 的精彩文章:

FlashSystem 9100系支持19TB FCM NVMe和MRAM Cache技術
關於數據中台系統,需要了解哪些技術?

TAG:架構師技術聯盟 |