spring-cloud 中 zuul 的兩種隔離機制實驗
(點擊
上方公眾號
,可快速關注)
來源:大名Dean鼎,
www.deanwangpro.com/2018/04/04/spring-cloud-zuul-threads/
ZuulException REJECTED_SEMAPHORE_EXECUTION 是一個最近在性能測試中經常遇到的異常。查詢資料發現是因為zuul默認每個路由直接用信號量做隔離,並且默認值是100,也就是當一個路由請求的信號量高於100那麼就拒絕服務了,返回500。
信號量隔離
既然默認值太小,那麼就在gateway的配置提高各個路由的信號量再實驗。
routes:
linkflow:
path: /api1/**
serviceId: lf
stripPrefix: false
semaphore:
maxSemaphores: 2000
oauth:
path: /api2/**
serviceId: lf
stripPrefix: false
semaphore:
maxSemaphores: 1000
兩個路由的信號量分開提高到2000和1000。我們再用gatling測試一下。
setUp(scn.inject(rampUsers(200) over (3 seconds)).protocols(httpConf))
這是我們的模型,3s內啟動200個用戶,順序訪問5個API。所以會有1000個request。機器配置只有2核16G,並且是docker化的資料庫。所以整體性能不高。
看結果仍然有57個KO,但是比之前1000個Request有900個KO的比例好很多了。
線程隔離
Edgware版本的spring cloud提供了另一種基於線程池的隔離機制。實現起來也非常簡單,
zuul:
ribbon-isolation-strategy: THREAD
thread-pool:
use-separate-thread-pools: true
thread-pool-key-prefix: zuulgw
hystrix:
threadpool:
default:
coreSize: 50
maximumSize: 10000
allowMaximumSizeToDivergeFromCoreSize: true
maxQueueSize: -1
execution:
isolation:
thread:
timeoutInMilliseconds: 60000
use-separate-thread-pools的意思是每個路由都有自己的線程池,而不是共享一個。
thread-pool-key-prefix會指定一個線程池前綴方便調試。
hystrix的部分主要設置線程池的大小,這裡設置了10000,其實並不是越大越好。線程池越大削峰填谷的效果越顯著,也就是時間換空間。系統的整體負載會上升,導致響應時間越來越長,那麼當響應時間超過某個限度,其實系統也算是不可用了。後面可以看到數據。
這次沒有500的情況了,1000個Request都正常返回了。
比較
從幾張圖對比下兩種隔離的效果,上圖是信號量隔離,下圖是線程隔離。
響應時間分布
直觀上能發現使用線程隔離的分布更好看一些,600ms內的響應會更多一些。
QPS
兩張圖展示的是同一時刻的Request和Response的數量。
先看信號量隔離的場景,Response per second是逐步提升的,但是達到一個量級後,gateway開始拒絕服務。猜測是超過了信號量的限制或是超時?
線程隔離的這張就比較有意思了,可以看到Request per second上升的速度要比上面的快,說明系統是試圖接收更多的請求然後分發給線程池。再看在某個時間點Response per second反而開始下降,因為線程不斷的創建消耗了大量的系統資源,響應變慢。之後因為請求少了,負載降低,Response又開始抬升。所以線程池也並非越大越好,需要不斷調試尋找一個平衡點。
小結
線程池提供了比信號量更好的隔離機制,並且從實際測試發現高吞吐場景下可以完成更多的請求。但是信號量隔離的開銷更小,對於本身就是10ms以內的系統,顯然信號量更合適。
看完本文有收穫?請轉發分享給更多人
關注「ImportNew」,提升Java技能
※通向架構師的道路 ( 第二十二天 ) 萬能框架 spring ( 四 ) 使用 struts2
※通向架構師的道路(第十八天)萬能框架 Spring ( 一 )(下)
TAG:ImportNew |