當前位置:
首頁 > 知識 > Hadoop大數據分析應用場景

Hadoop大數據分析應用場景

J

為了滿足日益增長的業務變化,京東的京麥團隊在京東大數據平台的基礎上,採用了hadoop等熱門的開源大數據計算引擎,打造了一款為京東運營和產品提供決策性的數據類產品-北斗平台。

一、Hadoop的應用業務分析

大數據是不能用傳統的計算技術處理的大型數據集的集合。它不是一個單一的技術或工具,而是涉及的業務和技術的許多領域。

目前主流的三大分散式計算系統分別為:Hadoop、Spark和Strom:

Hadoop當前大數據管理標準之一,運用在當前很多商業應用系統。可以輕鬆地集成結構化、半結構化甚至非結構化數據集。

Spark採用了內存計算。從多迭代批處理出發,允許將數據載入內存作反覆查詢,此外還融合數據倉庫,流處理和圖形計算等多種計算範式。Spark構建在HDFS上,能與Hadoop很好的結合。它的RDD是一個很大的特點。

Storm用於處理高速、大型數據流的分散式實時計算系統。為Hadoop添加了可靠的實時數據處理功能

Hadoop是使用Java編寫,允許分布在集群,使用簡單的編程模型的計算機大型數據集處理的Apache的開源框架。 Hadoop框架應用工程提供跨計算機集群的分散式存儲和計算的環境。 Hadoop是專為從單一伺服器到上千台機器擴展,每個機器都可以提供本地計算和存儲。

Hadoop適用于海量數據、離線數據和負責數據,應用場景如下:

場景1:數據分析,如京東海量日誌分析,京東商品推薦,京東用戶行為分析

場景2:離線計算,(異構計算 分散式計算)天文計算

場景3:海量數據存儲,如京東的存儲集群

基於京麥業務三個實用場景

京麥用戶分析

京麥流量分析

京麥訂單分析

都屬於離線數據,決定採用Hadoop作為京麥數據類產品的數據計算引擎,後續會根據業務的發展,會增加Storm等流式計算的計算引擎,下圖是京麥的北斗系統架構圖:

(圖一)京東北斗系統

二、淺談Hadoop的基本原理

Hadoop分散式處理框架核心設計

HDFS :(Hadoop Distributed File System)分散式文件系統

MapReduce: 是一種計算模型及軟體架構

2.1 HDFS

HDFS(Hadoop File System),是Hadoop的分散式文件存儲系統。

將大文件分解為多個Block,每個Block保存多個副本。提供容錯機制,副本丟失或者宕機時自動恢復。默認每個Block保存3個副本,64M為1個Block。將Block按照key-value映射到內存當中。

(圖二)數據寫入HDFS

(圖三)HDFS讀取數據

2.2 MapReduce

MapReduce是一個編程模型,封裝了並行計算、容錯、數據分布、負載均衡等細節問題。MapReduce實現最開始是映射map,將操作映射到集合中的每個文檔,然後按照產生的鍵進行分組,並將產生的鍵值組成列表放到對應的鍵中。化簡(reduce)則是把列表中的值化簡成一個單值,這個值被返回,然後再次進行鍵分組,直到每個鍵的列表只有一個值為止。這樣做的好處是可以在任務被分解後,可以通過大量機器進行並行計算,減少整個操作的時間。但如果你要我再通俗點介紹,那麼,說白了,Mapreduce的原理就是一個分治演算法。

演算法:

MapReduce計劃分三個階段執行,即映射階段,shuffle階段,並減少階段。

映射階段:映射或映射器的工作是處理輸入數據。一般輸入數據是在文件或目錄的形式,並且被存儲在Hadoop的文件系統(HDFS)。輸入文件被傳遞到由線映射器功能線路。映射器處理該數據,並創建數據的若干小塊。

減少階段:這個階段是:Shuffle階段和Reduce階段的組合。減速器的工作是處理該來自映射器中的數據。處理之後,它產生一組新的輸出,這將被存儲在HDFS。

2.3 HIVE

hive是基於Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射為一張資料庫表,並提供完整的sql查詢功能,可以將sql語句轉換為MapReduce任務進行運行,這套SQL 簡稱HQL。使不熟悉mapreduce 的用戶很方便的利用SQL 語言查詢,匯總,分析數據。而mapreduce開發人員可以把己寫的mapper 和reducer 作為插件來支持Hive 做更複雜的數據分析。

(圖五)HIVE體系架構圖

由上圖可知,hadoop和mapreduce是hive架構的根基。Hive架構包括如下組件:CLI(command line interface)、JDBC/ODBC、Thrift Server、WEB GUI、metastore和Driver(Complier、Optimizer和Executor)。

三、Hadoop走過來的那些坑

進行HIVE操作的時候,HQL寫的不當,容易造成數據傾斜,大致分為這麼幾類:空值數據傾斜、不同數據類型關聯產生數據傾斜和Join的數據偏斜。只有理解了Hadoop的原理,熟練使用HQL,就會避免數據傾斜,提高查詢效率。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 千鋒JAVA開發學院 的精彩文章:

try catch對Spring事務的影響

TAG:千鋒JAVA開發學院 |